11.03.2022, 16:16
Danke für den Hinweis, aber mein Problem war ein anderes. Ich wusste nicht, wie ich die Buckets meines Contabo Object Storage in meine Linux Syteme einbinden kann. Nach allem was ich gelesen habe, kann ich die Buckets nur als S3 Object Storage einbinden. Dokumentationen zur Nutzung mit sftp, scp etc fand ich nicht.
Die Nutzung von AWS S3 Object Storage unter Linux ist für mich Neuland. Ich musste zuerst mal herausfinden, dass ich zum Einbinden das Tool s3fs brauche. Nach dem Lesen der Manual Pages war schnell klar wie das geht. Wegen abweichenden Begriffen war für mich nicht immer ganz klar welche Werte aus den Angaben von Contabo ich in den Parametern der s3fs Befehlszeile einsetzen muss.
Auf Github habe ich Beispiele von anderen S3 Anbietern gefunden bei denen ich die entsprechenden Werte von Contabo eingesetzt habe, von denen aber kein einziges funktioniert hat.
Heute hat sich herausgestellt, dass ich alles richtig gemacht habe. Nach einem Neustart hat alles bestens funktioniert. Was das Problem war, weiss ich nicht. Etwas verwirrend finde ich, dass df -h 256 T verfügbaren Platz ausweist (wo ich doch nur 256 G habe)
Wenn man es einmal gemacht hat und weiss wie, dann ist es wirklich ganz einfach und praktisch für Datensicherungen etc. Mit Hilfe des API lassen sich bei Bedarf dann auch noch die Buckets und User verwalten, wobei für mich dafür die Weboberfläche eher besser geignet ist.
Die Nutzung von AWS S3 Object Storage unter Linux ist für mich Neuland. Ich musste zuerst mal herausfinden, dass ich zum Einbinden das Tool s3fs brauche. Nach dem Lesen der Manual Pages war schnell klar wie das geht. Wegen abweichenden Begriffen war für mich nicht immer ganz klar welche Werte aus den Angaben von Contabo ich in den Parametern der s3fs Befehlszeile einsetzen muss.
Auf Github habe ich Beispiele von anderen S3 Anbietern gefunden bei denen ich die entsprechenden Werte von Contabo eingesetzt habe, von denen aber kein einziges funktioniert hat.
Heute hat sich herausgestellt, dass ich alles richtig gemacht habe. Nach einem Neustart hat alles bestens funktioniert. Was das Problem war, weiss ich nicht. Etwas verwirrend finde ich, dass df -h 256 T verfügbaren Platz ausweist (wo ich doch nur 256 G habe)
Wenn man es einmal gemacht hat und weiss wie, dann ist es wirklich ganz einfach und praktisch für Datensicherungen etc. Mit Hilfe des API lassen sich bei Bedarf dann auch noch die Buckets und User verwalten, wobei für mich dafür die Weboberfläche eher besser geignet ist.