11.06.2025, 12:46
(Dieser Beitrag wurde zuletzt bearbeitet: 11.06.2025, 13:40 von Manfred Aabye.)
LM Studio KI Coder
Dieses Tool aktualisiert automatisch Quellcode-Dateien in einem Verzeichnis mithilfe einer lokalen KI (z. B. LM Studio + LLM).
Unterstützt werden viele Programmiersprachen wie Python, C++, JavaScript, Rust u. v. m.
✨ Funktionen
Lokale Verarbeitung über LM Studio (kein Cloud-Zwang)
Unterstützung für zahlreiche Programmiersprachen
Backups aller bearbeiteten Dateien
Individuell anpassbarer Prompt
? Voraussetzungen
LM Studio installiert und gestartet
Ein passendes LLM-Modell ist geladen und als lokaler Chat-Endpunkt erreichbar:
http://localhost:1234/v1/chat/completions
Tipp: In LM Studio unter „API“ den lokalen Server aktivieren und Port 1234 verwenden.
? Installation
Python 3.8+ installieren (falls noch nicht vorhanden)
Erforderliche Pakete (nur Standard-Libraries werden genutzt)
Repository klonen oder Dateien lokal speichern
Programm starten:
python KI-Code-Updater.py
? Verwendung
Arbeitsverzeichnis wählen (z. B. ein Projektordner mit .py, .js usw.)
Programmiersprache auswählen
Prompt anpassen (optional)
Platzhalter {language} und {code} werden automatisch ersetzt
Auf „Code aktualisieren“ klicken
Ergebnis abwarten – Fortschrittsbalken zeigt den Status an
✅ Alle bearbeiteten Dateien werden vorher gesichert (Ordner backups/ im jeweiligen Quellverzeichnis).
? Beispiel-Prompt
Aktualisiere diesen {language}-Code:
- Ersetze veraltete oder unsichere Syntax
- Behalte die Funktionalität bei
Code:
{code}
Github: https://github.com/ManfredAabye/lmstudio-coder
Dieses Tool aktualisiert automatisch Quellcode-Dateien in einem Verzeichnis mithilfe einer lokalen KI (z. B. LM Studio + LLM).
Unterstützt werden viele Programmiersprachen wie Python, C++, JavaScript, Rust u. v. m.
✨ Funktionen
Lokale Verarbeitung über LM Studio (kein Cloud-Zwang)
Unterstützung für zahlreiche Programmiersprachen
Backups aller bearbeiteten Dateien
Individuell anpassbarer Prompt
? Voraussetzungen
LM Studio installiert und gestartet
Ein passendes LLM-Modell ist geladen und als lokaler Chat-Endpunkt erreichbar:
http://localhost:1234/v1/chat/completions
Tipp: In LM Studio unter „API“ den lokalen Server aktivieren und Port 1234 verwenden.
? Installation
Python 3.8+ installieren (falls noch nicht vorhanden)
Erforderliche Pakete (nur Standard-Libraries werden genutzt)
Repository klonen oder Dateien lokal speichern
Programm starten:
python KI-Code-Updater.py
? Verwendung
Arbeitsverzeichnis wählen (z. B. ein Projektordner mit .py, .js usw.)
Programmiersprache auswählen
Prompt anpassen (optional)
Platzhalter {language} und {code} werden automatisch ersetzt
Auf „Code aktualisieren“ klicken
Ergebnis abwarten – Fortschrittsbalken zeigt den Status an
✅ Alle bearbeiteten Dateien werden vorher gesichert (Ordner backups/ im jeweiligen Quellverzeichnis).
? Beispiel-Prompt
Aktualisiere diesen {language}-Code:
- Ersetze veraltete oder unsichere Syntax
- Behalte die Funktionalität bei
Code:
{code}
Github: https://github.com/ManfredAabye/lmstudio-coder
Ein Metaversum sind viele kleine Räume, die nahtlos aneinander passen,
sowie direkt sichtbar und begehbar sind, als wäre es aus einem Guss.
sowie direkt sichtbar und begehbar sind, als wäre es aus einem Guss.