Benutzer-Werkzeuge

Webseiten-Werkzeuge


storage:s3

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
storage:s3 [2018/07/13 06:55] lwsystemsstorage:s3 [2022/10/14 06:41] (aktuell) lwsystems
Zeile 1: Zeile 1:
 ====== Amazon S3 AWS Storage Backend ====== ====== Amazon S3 AWS Storage Backend ======
  
-Amazon AWS bzw. der Amazon S3 Storage kann (ebenso wie S3-kompatible Storagesysteme) zur Ablage der archivierten E-Mails verwendet werden.+Amazon AWS bzw. der Amazon S3 Storage kann (ebenso wie S3-kompatible Storagesysteme) zur Ablage der archivierten E-Mails verwendet werden. Die E-Mails im Repo sollten hier [[:verschluesselung|verschlüsselt]] gespeichert werden.
  
 \\ \\
 ===== Rechtliche Hinweise zur GoBD-konformen Archivierung und S3-Storagelösungen ===== ===== Rechtliche Hinweise zur GoBD-konformen Archivierung und S3-Storagelösungen =====
  
-//Sollen E-Mails rechtssicher nach deutschem Recht (insbes. GoBD usw.) archiviert werden, impliziert die Nutzung von Amazon S3 AWS als externe Cloud-Storagetechnologie rechtliche Aspekte, die zwingend mit Amazon geklärt werden müsssten. Hier ist besonders der physische Speicherort der archivierten E-Mails vertraglich mit Amazon festzulegen, da GoBD-konform nur archiviert werden kann, wenn die abgelegten Mails in Deutschland gespeichert werden. Abweichende Nutzungen sollten nicht ohne ausdrückliche Genehmigung der Finanzverwaltung bzw. des zuständigen Finanzamts angestrebt werden. +//Sollen E-Mails rechtssicher nach deutschem Recht (insbes. GoBD usw.) archiviert werden, impliziert die Nutzung von Amazon S3 AWS als externe Cloud-Storagetechnologie (also das Ablegen der archivieren E-Mails in Amazon AWS) rechtliche Aspekte, die mit Amazon zwingend auf vertraglicher Basis geklärt und festgelegt werden müssen. Hier ist besonders der physische Speicherort der archivierten E-Mails vertraglich mit Amazon festzulegen, da GoBD-konform nur archiviert werden kann, wenn die abgelegten Mails innerhalb des Hoheitsgebiets der Bundesrepublik Deutschland gespeichert werden. Abweichende Nutzungen sollten nicht ohne ausdrückliche Genehmigung der Finanzverwaltung bzw. des zuständigen Finanzamts angestrebt werden.//
-Werden S3-kompatible Storagelösungen bei anderen Cloud-Dienstleistern verwendet, gilt dies selbstverständlich entsprechend. Selbiges gilt für Storagelösungen mit S3-Schnittstelle im Eigenbetrieb, sofern sie außerhalb des eigenen Unternehmens in der Cloud verwendet werden.//+
  
-//Die vorgenannten rechtlichen Hinweise stellen keine Rechtsberatung dar. Die dienen lediglich zur allgemeinen Information. Wir übernehmen keine Gewähr für die Richtigkeit oder Vollständigkeit der Angaben. Jegliche Haftung ist ausgeschlossen.//+//Werden S3-kompatible Storagelösungen bei anderen Cloud-Dienstleistern verwendet, gilt dies selbstverständlich entsprechend. Selbiges gilt für Storagelösungen mit S3-Schnittstelle im Eigenbetrieb, sofern sie außerhalb des eigenen Unternehmens in der Cloud verwendet werden.// 
 + 
 +Die vorgenannten rechtlichen Hinweise stellen keine Rechtsberatung dar. Die dienen lediglich zur allgemeinen Information. Wir übernehmen keine Gewähr für die Richtigkeit oder Vollständigkeit der Angaben. Jegliche Haftung ist ausgeschlossen.
 \\ \\
 \\ \\
Zeile 19: Zeile 20:
  
   apt install benno-storage-s3   apt install benno-storage-s3
- 
 \\ \\
-\\ 
-\\ 
-\\ 
- 
 ====== Konfiguration ====== ====== Konfiguration ======
  
Zeile 30: Zeile 26:
  
 <file xml> <file xml>
 +<!-- Mandant 1 ######################################################## -->
 <simplecontainer> <simplecontainer>
   <identifier>Mandant1</identifier>   <identifier>Mandant1</identifier>
Zeile 48: Zeile 45:
       <storage driver="s3">       <storage driver="s3">
         <identifier>Bucket1</identifier>         <identifier>Bucket1</identifier>
-        <endpoint>https://gos3.io</endpoint>+        <!-- AWS-spezifische Konfiguration --> 
 +        <region>eu-central-1</region> 
 +        <!-- Alternativ zu AWS: die Endpoint-Konfiguration --> 
 +        <!-- <endpoint>https://gos3.io</endpoint> -->
         <authentication>         <authentication>
           <authKeyId>YOUR_S3_AUTH_KEY_ID</authKeyId>           <authKeyId>YOUR_S3_AUTH_KEY_ID</authKeyId>
Zeile 58: Zeile 58:
 </simplecontainer> </simplecontainer>
 </file> </file>
 +\\
  
 ====== Bezeichner ====== ====== Bezeichner ======
Zeile 96: Zeile 97:
 </file> </file>
  
-Der Index muss im Filesytem gespeichert werden. hier wird der Pfad zum Index festgelegt. Das Verzeichnis wird beim Start des Archvierungs-Daemons automatisch erzeugt.+Der Suchindex muss im Filesytem des Benno MailArchiv Servers gespeichert werden (= wird nicht im S3-Storage abgelegt)Hier wird der Pfad zum Index festgelegt. Das Verzeichnis wird beim Start des Archvierungs-Daemons automatisch erzeugt.
  
 ===== Metadaten des Storage-Backends ===== ===== Metadaten des Storage-Backends =====
  
-Die Metadaten des Repos werden im Filesystem gespeichert. Der hier angegebene Pfad muss für jeden Container unterschiedlich sein. Dieser Pfad ist gleichzeitig das Prefix bei der Speicherung in S3.+Die Metadaten des Repos (u.a. das [[https://wiki.benno-mailarchiv.de/doku.php/begriffsbestimmungen#journal|Journal]] über die archivierten E-Mails) werden im Filesystem gespeichert. Der hier angegebene Pfad muss für jeden Container unterschiedlich sein. Dieser Pfad ist gleichzeitig das Prefix bei der Speicherung in S3.
  
 Dieser Pfad wird im //<directory />//-Tag innerhalb vom //<boxgenerator />// konfiguriert.  Dieser Pfad wird im //<directory />//-Tag innerhalb vom //<boxgenerator />// konfiguriert. 
Zeile 112: Zeile 113:
 ===== S3 Storage-Backend ===== ===== S3 Storage-Backend =====
  
-==== Endpoint URL ====+Die Konfiguration des S3-Storage-Backends kann wahlweise per "AWS Region" erfolgen (bei Amazon AWS S3 Storage) oder alternativ über eine "Endpoint URL".
  
-Alternativ kann auch per Endpoint-URL (<endpoint />auf den Bucket zugegriffen werden.+==== AWS Region ==== 
 + 
 +Die Konfiguration eines AWS Storage erfolgt über die "Access Key Id" (<authKey />) und "Secret Access Key" (<authKey />) und der Region (<region />).
  
 <code xml> <code xml>
 <storage driver="s3"> <storage driver="s3">
   <identifier>Bucket1</identifier>   <identifier>Bucket1</identifier>
-  <endpoint>https://gos3.io</endpoint>+  <region>eu-central-1</region>
   <authentication>   <authentication>
     <authKeyId>YOUR_S3_AUTH_KEY_ID</authKeyId>     <authKeyId>YOUR_S3_AUTH_KEY_ID</authKeyId>
Zeile 127: Zeile 130:
 </code> </code>
  
 +==== Endpoint URL ====
  
-==== AWS Region ==== +Der Zugriff auf Buckets in einem S3-kompatiblen Storage kann per Endpoint-URL (<endpoint />konfiguriert werden.
- +
-Die Konfiguration eines AWS Storage erfolgt über die "Access Key Id" (<authKey />) und "Secret Access Key" (<authKey />) und der Region (<region />).+
  
 <code xml> <code xml>
 <storage driver="s3"> <storage driver="s3">
   <identifier>Bucket1</identifier>   <identifier>Bucket1</identifier>
-  <region>eu-central-1</region>+  <endpoint>https://gos3.io</endpoint>
   <authentication>   <authentication>
     <authKeyId>YOUR_S3_AUTH_KEY_ID</authKeyId>     <authKeyId>YOUR_S3_AUTH_KEY_ID</authKeyId>
Zeile 157: Zeile 159:
 </file> </file>
  
 +====== SSL-Zertifikate ======
 +
 +===== Zertifikats-Import =====
 +
 +Falls das Zertifikat des S3 Storage-Backends nicht korrekt validiert werden kann, wird der Zugriff abgebrochen. 
 +
 +In diesem Fall wird das CA-Zertifikat in den lokalen Java-Keystore importiert:
 +
 +<code bash>
 +keytool -cacerts -import -storepass "changeit" -file /tmp/ca.pem -alias "MyCertName"
 +</code>
 +
 +Das Passwort für den CA-Store ist bei einer Standard Java-Installation immer "//changeit//".
  
 +===== Validierung deaktivieren =====
  
 +Die Validierung der Zertifikate kann im //benno-archive// oder //benno-rest// Daemon global deaktiviert werden. Hierfür wird in der Datei ''/etc/default/benno-<archive|rest>'' die Zeile ''JAVA_OPTIONS=' -server ...'' mit
 +'' -Dcom.amazonaws.sdk.disableCertChecking '' erweitert.
storage/s3.1531464931.txt.gz · Zuletzt geändert: 2018/07/13 06:55 von lwsystems