changeset 9712:b880a8adc2b2 3.2.x

Convert importer documentation sources to UTF-8 Needs escaping extended characters like "%*ü*)" in listings.
author Tom Gottfried <tom@intevation.de>
date Thu, 04 Mar 2021 13:05:19 +0100
parents 21e276cef740
children aef987124822
files backend/doc/documentation/de/importer-geodaesie.tex backend/doc/documentation/de/importer-hydr-morph.tex backend/doc/documentation/de/importer-manual.tex backend/doc/documentation/de/overview.tex backend/doc/documentation/de/title.tex
diffstat 5 files changed, 313 insertions(+), 313 deletions(-) [+]
line wrap: on
line diff
--- a/backend/doc/documentation/de/importer-geodaesie.tex	Thu Mar 04 12:25:11 2021 +0100
+++ b/backend/doc/documentation/de/importer-geodaesie.tex	Thu Mar 04 13:05:19 2021 +0100
@@ -5,58 +5,58 @@
 eine Datenbank.
 Zum Lesen der Shapefiles und zum Schreiben der Geodaten
 in die Datenbank wird die GDAL-Bibliothek verwendet.
-Um Daten in eine Oracle Datenbank zu importieren ist es nötig, dass
-GDAL und GDAL-Python-Bindings mit Oracle-Unterstützung installiert
-sind. Bei der Verwendung von PostgreSQL entfällt dieser Schritt.
+Um Daten in eine Oracle Datenbank zu importieren ist es nötig, dass
+GDAL und GDAL-Python-Bindings mit Oracle-Unterstützung installiert
+sind. Bei der Verwendung von PostgreSQL entfällt dieser Schritt.
 Weitere Details hierzu befinden sich im
 Kapitel \ref{Systemanforderungen} und \ref{Installationsanleitung}.
 
 Der Importer kann mit einem Shellscript von der Kommandozeile gestartet werden
 (siehe Kapitel \ref{Starten des Geodaten Importers}). Nach dem Start wird anhand der
 Konfiguration festgestellt, welche Klassen von Shapefiles aus dem Dateisystem
-importiert werden sollen. Für jede Klasse gibt es einen speziellen
+importiert werden sollen. Für jede Klasse gibt es einen speziellen
 Parser, der die speziellen Attribute eines Shapefiles liest und in die entsprechende
 Relation der Datenbank schreibt. Die Parser sind speziell auf das
 Dateisystem der BfG ausgerichtet. So wird beispielsweise erwartet, dass die Shapefiles der
-Gewässerachse im Ordner $Geodaesie/Flussachse+km$ liegen. Weitere Informationen zu
+Gewässerachse im Ordner $Geodaesie/Flussachse+km$ liegen. Weitere Informationen zu
 den einzelnen Parsern sind Kapitel \ref{Beschreibung der Parser} zu
 entnehmen.
 
-Damit die Geodaten eines Shapes später eindeutig in der Datenbank identifiziert
-werden können, wird für jede Geometrie der Pfad des Shapes im Dateisystem
+Damit die Geodaten eines Shapes später eindeutig in der Datenbank identifiziert
+werden können, wird für jede Geometrie der Pfad des Shapes im Dateisystem
 im Datenbankfeld 'path' gespeichert. Anwendungen, die auf der Datenbank
-aufbauen, können die Geodaten eines Shapefiles später anhand dieses Merkmals
+aufbauen, können die Geodaten eines Shapefiles später anhand dieses Merkmals
 gruppieren und anzeigen.
 
 Bitte beachten Sie, dass der Geodaten Importer aufgrund der eingesetzten
 Technologien derzeit nicht in der Lage ist, lesend auf die Oracle-Datenbank
 zuzugreifen. Entsprechend kann beim Import nicht festgestellt werden, ob sich
 die Daten eines Shapefiles bereits in der Datenbank befinden, oder nicht.
-Ein erneuter Import der Geodaten würde also dazu führen, dass Geometrien doppelt in der
+Ein erneuter Import der Geodaten würde also dazu führen, dass Geometrien doppelt in der
 Datenbank abgelegt werden.
 
 \subsection{Koordination-Transformation}
-Für die Transformation der Daten verwendet GDAL wiederum die PROJ4-Bibliothek.
+Für die Transformation der Daten verwendet GDAL wiederum die PROJ4-Bibliothek.
 Die Daten werden vor dem Schreiben in die Datenbank alle
-in die Gauß-Krüger-Projektion Zone 3 (EPSG-Code 31467) transformiert.
-Ist für die zu importierenden Daten keine Projektion ersichtlich
+in die Gauß-Krüger-Projektion Zone 3 (EPSG-Code 31467) transformiert.
+Ist für die zu importierenden Daten keine Projektion ersichtlich
 (fehlende \textit{*.prj}-Datei), so findet keine Transformation statt.
-Dies führt nur zu Problemen mit dem Fachdienst FLYS, falls die Daten nicht
+Dies führt nur zu Problemen mit dem Fachdienst FLYS, falls die Daten nicht
 bereits in der genannten Projektion vorlagen.
 
-Im Falle der Digitalen Geländemodelle (DGM) findet keine Transformation statt,
+Im Falle der Digitalen Geländemodelle (DGM) findet keine Transformation statt,
 da zu diesen lediglich Metadaten in der Datenbank gespeichert werden
 (siehe Kapitel \ref{dgm_parser}),
-während die Daten selbst von der Anwendung Dive4Elements River
+während die Daten selbst von der Anwendung Dive4Elements River
 aus dem Dateisystem geholt werden.
-Für Berechnungen mit den DGM werden die Geometrien aus der Datenbank
+Für Berechnungen mit den DGM werden die Geometrien aus der Datenbank
 in Dive4Elements River in die Projektion des jeweiligen DGM transformiert.
 Daher ist es besonders wichtig, dass die Angaben des EPSG-Codes
 in der Spalte SRID in DGMs.csv korrekt sind (siehe Kapitel \ref{dgm_parser})
 
 \subsection{Logfile}
 Der Erfolg oder Misserfolg eines Shape-Imports wird
-im Logfile vermerkt. Folgende Einträge können dem Logfile
+im Logfile vermerkt. Folgende Einträge können dem Logfile
 entnommen werden:
 
 \textbf{INFO: Inserted \# features}
@@ -75,12 +75,12 @@
 Attribut-Daten in die Datenbank.
 Attribut-Spalten die nicht importiert wurden (z.B. auf Grund
 von Tippfehlern oder unterschiedlicher Schreibweise),
-werden wie angegeben im Logfile aufgeführt.
+werden wie angegeben im Logfile aufgeführt.
 
 \textbf{ERROR: No source SRS given! No transformation possible!}
-\\Das Shapefile enthält keine Information, in welcher Projektion die Geometrien
+\\Das Shapefile enthält keine Information, in welcher Projektion die Geometrien
 vorliegen. Es findet keine Transformation in die Zielprojektion statt. Bitte
-beachten Sie, dass FLYS diese Geometrien später ggf.\ nicht korrekt darstellen
+beachten Sie, dass FLYS diese Geometrien später ggf.\ nicht korrekt darstellen
 kann.
 
 \textbf{ERROR: Unable to insert feature: DETAIL}
@@ -92,10 +92,10 @@
 Fehler aufgetreten. Die Features des Shapes sind nicht importiert worden.
 
 \textbf{ERROR 1: ORA-01017: invalid username/password; logon denied}
-\\Es konnte keine Verbindung zur Oracle Datenbank hergestellt werden. Prüfen Sie
+\\Es konnte keine Verbindung zur Oracle Datenbank hergestellt werden. Prüfen Sie
 die Verbindungseinstellungen.
 
-Weitere Fehler, die von der Oracle-Datenbank kommen, können ebenfalls im
+Weitere Fehler, die von der Oracle-Datenbank kommen, können ebenfalls im
 Logfile angezeigt werden.
 
 
@@ -107,19 +107,19 @@
 angegeben:
 
 \textbf{Pfad}
-\\Der Pfad, in dem die Shapefiles im Dateisystem abgelegt sein müssen (ausgehend
-vom Gewässer Verzeichnis).
+\\Der Pfad, in dem die Shapefiles im Dateisystem abgelegt sein müssen (ausgehend
+vom Gewässer Verzeichnis).
 
 \textbf{Geometrie}
-\\Der Geometrie Typ, der für diese Klasse von Shapefiles erwartet wird.
+\\Der Geometrie Typ, der für diese Klasse von Shapefiles erwartet wird.
 
 \textbf{Attribute}
 \\Eine Liste der Attribute, die vom Parser aus dem Shape gelesen werden.
 In Klammern als alternativ bezeichnete Attribut-Namen werden in
 das gleiche Datenbankfeld geschrieben, wie das vorgenannte Feld.
-Die alternativen Namen werden vom Importer zusätzlich unterstützt,
-um Dateien aus dem heterogenen Bestand der BfG unverändert
-importieren zu können.
+Die alternativen Namen werden vom Importer zusätzlich unterstützt,
+um Dateien aus dem heterogenen Bestand der BfG unverändert
+importieren zu können.
 
 Zudem werden Datenbank-Attribute beschrieben, die nicht direkt aus
 Attribut-Spalten des Shapefiles gelesen werden.
@@ -132,14 +132,14 @@
 \end{tabular*}
 
 Das Attribut 'name' wird auf den Namen des Shapefiles gesetzt.
-Zusätzlich wird das Attribut 'kind\_id' gesetzt, welches
-für die aktuelle Achse (\textit{achse.shp}) 1 ist
-und für sonstige Achsen (weitere Linien-Shapes) 2.
+Zusätzlich wird das Attribut 'kind\_id' gesetzt, welches
+für die aktuelle Achse (\textit{achse.shp}) 1 ist
+und für sonstige Achsen (weitere Linien-Shapes) 2.
 
 Hinweis:
-Da die Layer-Konfiguration (Mapfiles) für die Flussachsen beim Start des
+Da die Layer-Konfiguration (Mapfiles) für die Flussachsen beim Start des
 Artefakt-Servers generiert werden, muss der Artefakt-Server neugestartet
-werden um die Flussachse in der Anwendung darstellen zu können.
+werden um die Flussachse in der Anwendung darstellen zu können.
 
 \subsubsection{Hydr. Grenzen}
 \hspace{5mm}
@@ -150,13 +150,13 @@
 \end{tabular*}
 
 Das Attribut 'name' wird auf den Namen des Shapefiles gesetzt.
-Das Attribut 'kind' wird 1 gesetzt für Daten aus dem
+Das Attribut 'kind' wird 1 gesetzt für Daten aus dem
 Unterverzeichnis \textit{Linien/BfG},
-2 für Daten aus \textit{Linien/Land},
-3 für Daten aus \textit{Sonstige}
-und für alle übrigen 0.
+2 für Daten aus \textit{Linien/Land},
+3 für Daten aus \textit{Sonstige}
+und für alle übrigen 0.
 Ausgenommen sind Dateien, in deren Namen 'Talaue'
-(Groß-Klein-Schreibung irrelevant) vorkommt.
+(Groß-Klein-Schreibung irrelevant) vorkommt.
 
 Linien und Polygone werden in der Datenbank in unterschiedlichen
 Tabellen gespeichert.
@@ -168,20 +168,20 @@
 Geometrie   &   LINESTRING \\
 Attribute   &   Name (alternativ: KWNAAM),
   km (alternativ: station, wsv-km),
-  z (alternativ: Höhe, Hoehe, m+NHN)\\
+  z (alternativ: Höhe, Hoehe, m+NHN)\\
 \end{tabular*}
 
 Das Attribut 'name' wird auf den Namen des Shapefiles gesetzt.
-Das Attribut 'kind\_id' ist 0 für Sonstige,
-1 für Brücken, 2 für Wehre, 3 für Pegel.
+Das Attribut 'kind\_id' ist 0 für Sonstige,
+1 für Brücken, 2 für Wehre, 3 für Pegel.
 Es wird aus dem Dateinamen hergeleitet
 (\textit{bruecken.shp, wehre.shp, pegel.shp},
-teilweise auch alternative Schreibweisen unterstützt)
+teilweise auch alternative Schreibweisen unterstützt)
 oder je Feature gesetzt, wenn in einer Attributspalte
 die Werte 'bruecke' und 'wehr'
-(teilweise auch alternative Schreibweisen unterstützt) vorkommen.
+(teilweise auch alternative Schreibweisen unterstützt) vorkommen.
 Ausgenommen sind Dateien, in deren Namen 'Buhnen'
-(Groß-Klein-Schreibung irrelevant) vorkommt.
+(Groß-Klein-Schreibung irrelevant) vorkommt.
 
 \subsubsection{Querprofilspuren}
 \hspace{5mm}
@@ -191,8 +191,8 @@
 Attribute   &   KILOMETER (alternativ: KM, STATION), ELEVATION \\
 \end{tabular*}
 
-Das Attribut 'kind\_id' wird 1 gesetzt für die Datei \textit{qps.shp} (aktuelle Querprofilspuren)
-und 0 für alle weiteren.
+Das Attribut 'kind\_id' wird 1 gesetzt für die Datei \textit{qps.shp} (aktuelle Querprofilspuren)
+und 0 für alle weiteren.
 
 \subsubsection{Festpunkte}
 \hspace{5mm}
@@ -211,11 +211,11 @@
 Geometrie   &   POINT \\
 Attribute   &   Ort (alternativ: Pegel),
   km (alternativ: station, wsv-km, FlussKm),
-  z (alternativ: z mit anschließender Zahl, m+NHN)\\
+  z (alternativ: z mit anschließender Zahl, m+NHN)\\
 \end{tabular*}
 
-Groß-Klein-Schreibung im Dateinamen ist irrelevant.
-Für das Attribut 'year' wird im Dateinamen nach einer Jahreszahl
+Groß-Klein-Schreibung im Dateinamen ist irrelevant.
+Für das Attribut 'year' wird im Dateinamen nach einer Jahreszahl
 nach folgendem Muster gesucht: \textit{\_YYYY\_} oder \textit{-YYYY-}.
 Gelingt dies nicht, erscheint im Logfile die Warnung
 'Could not extract year from filename: ...'.
@@ -228,10 +228,10 @@
 \end{tabular*}
 
 Es werden nur Dateien betrachtet, in deren Namen das Wort 'Talaue'
-(Groß-Klein-Schreibung irrelevant) vorkommt.
+(Groß-Klein-Schreibung irrelevant) vorkommt.
 Das Attribut 'name' wird auf den Namen des Shapefiles gesetzt.
-Das Attribut 'kind\_id' wird 1 gesetzt für die Datei \textit{talaue.shp} (aktuelle Talaue)
-und 0 für alle weiteren.
+Das Attribut 'kind\_id' wird 1 gesetzt für die Datei \textit{talaue.shp} (aktuelle Talaue)
+und 0 für alle weiteren.
 
 \subsubsection{Hochwasserschutzanlagen}
 \hspace{5mm}
@@ -241,19 +241,19 @@
 Attribute   &   Name, Art, Quelle, Anmerkung, Stand, Verband,
                 km (alternativ: Deich\_km), Bereich,
                 Hoehe\_ist, Hoehe\_soll, WSP\_Bfg100, Bundesland
-                (Teilweise auch alternative Schreibweisen unterstützt)\\
+                (Teilweise auch alternative Schreibweisen unterstützt)\\
 \end{tabular*}
 
 Das Attribut 'name' wird auf den Namen des Shapefiles gesetzt,
 wenn kein Attribut 'Name' im Shapefile vorhanden ist.
-Das Feld 'kind\_id' wird per Default auf 2 (für Damm) gesetzt.
+Das Feld 'kind\_id' wird per Default auf 2 (für Damm) gesetzt.
 Wird ein Attribut 'ART' im Shapefile gefunden,
 so wird 'kind\_id' entsprechend dieses Feldes gesetzt
-(1 für die Werte 'Durchlass', 'Rohr1', 'Rohr 1', 'Rohr 2',
-2 für die Werte 'Damm', 'Deich', 'Hochufer', 'Hauptdeich', 'Sommerdeich',
-3 für den Wert 'Graben').
+(1 für die Werte 'Durchlass', 'Rohr1', 'Rohr 1', 'Rohr 2',
+2 für die Werte 'Damm', 'Deich', 'Hochufer', 'Hauptdeich', 'Sommerdeich',
+3 für den Wert 'Graben').
 Es wird versucht das Bundesland aus dem Dateinamen zu ermitteln,
-wenn das Shapefile kein Attribut 'Bundesland' enthält.
+wenn das Shapefile kein Attribut 'Bundesland' enthält.
 
 Linien und Punkte werden in der Datenbank in unterschiedlichen
 Tabellen gespeichert.
@@ -264,13 +264,13 @@
 Pfad        &   Geodaesie/Bauwerke/Buhnen.shp \\
 Geometrie   &   POINT \\
 Attribute   &   station (alternativ: km, wsv-km),
-                z (alternativ: Hoehe, Höhe, m+NHN) \\
+                z (alternativ: Hoehe, Höhe, m+NHN) \\
 \end{tabular*}
 
-Das Attribut 'kind\_id' wird für
+Das Attribut 'kind\_id' wird für
 Buhnenkopf (\textit{bkl, bkr, bk}) 0,
-für Buhnenfuß (\textit{bfl, bfr, bf}) 1 und
-für Buhnenwurzel (\textit{bwl, bwr, bw}) 2 gesetzt,
+für Buhnenfuß (\textit{bfl, bfr, bf}) 1 und
+für Buhnenwurzel (\textit{bwl, bwr, bw}) 2 gesetzt,
 
 \subsubsection{Stationierung}
 \hspace{5mm}
@@ -282,7 +282,7 @@
 
 Das Attribut 'name' wird auf den Namen des Shapefiles gesetzt.
 
-\subsubsection{Überschwemmungsfläche}
+\subsubsection{Überschwemmungsfläche}
 \hspace{5mm}
 \begin{tabular*}{155mm}[t]{l@{\extracolsep\fill}p{125mm}}
 Pfad        &   Hydrologie/UeSG \\
@@ -297,37 +297,37 @@
 \begin{tabular}[t]{ll}
 Unterverzeichnis & Wert \\
 \textit{Berechnungen/Aktuell/BfG} & 111 \\
-\textit{Berechnungen/Aktuell/Bundesländer} & 112 \\
+\textit{Berechnungen/Aktuell/Bundesländer} & 112 \\
 \textit{Berechnungen/Potentiell/BfG} & 121 \\
-\textit{Berechnungen/Potentiell/Bundesländer} & 122 \\
+\textit{Berechnungen/Potentiell/Bundesländer} & 122 \\
 \textit{Messungen} & 200 \\
 \end{tabular}
 
 Das Attribut 'source' wird auf den Namen des Verzeichnisses gesetzt,
 indem sich das jeweilige Shapefile befindet.
 
-\subsubsection{Metadaten zu Digitalen Gelände-Modellen}
+\subsubsection{Metadaten zu Digitalen Gelände-Modellen}
 \label{dgm_parser}
 \hspace{5mm}
 \begin{tabular*}{155mm}[t]{l@{\extracolsep\fill}p{125mm}}
 Pfad        &   ../DGMs.csv \\
-Attribut    &   Projektion, Höhenstatus, Format, Bruchkanten,
-                Auflösung, SRID, Pfad\_Bestand,
+Attribut    &   Projektion, Höhenstatus, Format, Bruchkanten,
+                Auflösung, SRID, Pfad\_Bestand,
                 km\_von, km\_bis, Jahr\_von, Jahr\_bis \\
 \end{tabular*}
 
-Aus der Spalte 'Gewässer' in DGMs.csv wird entnommen,
-für welches Gewässer das angegebene DGM verwendet wird.
+Aus der Spalte 'Gewässer' in DGMs.csv wird entnommen,
+für welches Gewässer das angegebene DGM verwendet wird.
 Die Spalte muss daher den exakt gleichen Namen enthalten
-wie in der *.gew-Datei des Gewässers angegeben
+wie in der *.gew-Datei des Gewässers angegeben
 (siehe auch Kapitel \ref{start-hydr}).
 Die eigentlichen Geo-Daten der DGM werden nicht in die Datenbank importiert.
 Diese werden von der Anwendung Dive4Elements River aus dem Dateisystem geholt.
 
 \subsection{Konfiguration}
 \label{Konfiguration}
-Der Geodaten Importer kann über das Skript \textit{./run\_geo.sh}
-konfiguriert werden. Öffnen Sie die Datei mit einem Texteditor Ihrer Wahl
+Der Geodaten Importer kann über das Skript \textit{./run\_geo.sh}
+konfiguriert werden. Öffnen Sie die Datei mit einem Texteditor Ihrer Wahl
 und passen Sie ggf.\ folgende Variablen an:
 
 \textbf{HOST}
@@ -341,26 +341,26 @@
 \\Der Nutzer, der zum Verbinden zur Datenbank verwendet wird.
 
 \textbf{PASS}
-\\Das Passwort für USER zum Verbinden zur Datenbank.
+\\Das Passwort für USER zum Verbinden zur Datenbank.
 
 In den weiteren Zeilen werden weitere Optionen definiert, die bei Bedarf angepasst
-werden können. Falls nicht anders angegeben, können die Optionen mit den Werten
+werden können. Falls nicht anders angegeben, können die Optionen mit den Werten
 `0` und `1` belegt werden.
 
 \textbf{VERBOSE}
-\\Dieser Wert gibt die Granularität der Log-Ausgaben während des
-Imports an. Je höher der Wert, desto mehr Informationen werden
+\\Dieser Wert gibt die Granularität der Log-Ausgaben während des
+Imports an. Je höher der Wert, desto mehr Informationen werden
 in das Logfile geschrieben. Aktuell sind die Werte `0`, `1` und
 `2` definiert. Wird der Wert `0` gesetzt, werden nur Fehler und
 Warnungen in das Logfile geschrieben. Bei `1` werden neben
 Fehlern und Warnungen auch Infos in das Logfile geschrieben. Bei
-`2` werden sämtliche Ausgaben des Programms geschrieben. Dieser
-Modus ist hauptsächlich für die Entwicklung gedacht.
+`2` werden sämtliche Ausgaben des Programms geschrieben. Dieser
+Modus ist hauptsächlich für die Entwicklung gedacht.
 
 \textbf{OGR\_CONNECTION}
 \\Hiermit kann direkt ein beliebiger Verbindungs-String angegegeben
 werden, welcher dann anstatt HOST, USER und PASS verwendet wird.
-Diese Option wird direkt an die OGR-Bibliothek weitergegeben und ermöglicht
+Diese Option wird direkt an die OGR-Bibliothek weitergegeben und ermöglicht
 verbesserte Tests und Entwicklung mit verschiedenen Backends.
 
 \textbf{SKIP\_AXIS}
@@ -391,10 +391,10 @@
 \\Bei gesetztem Wert `1` werden kein Hochwasserschutzanlagen (Punktdaten) importiert.
 
 \textbf{SKIP\_UESG}
-\\Bei gesetztem Wert `1` werden keine Überschwemmungsflächen importiert.
+\\Bei gesetztem Wert `1` werden keine Überschwemmungsflächen importiert.
 
 \textbf{SKIP\_DGM}
-\\Bei gesetztem Wert `1` werden keine Metadaten zu Digitalen Geländemodellen importiert.
+\\Bei gesetztem Wert `1` werden keine Metadaten zu Digitalen Geländemodellen importiert.
 
 \textbf{SKIP\_JETTIES}
 \\Bei gesetztem Wert `1` werden keine Buhnen importiert.
@@ -405,15 +405,15 @@
 \subsection{Starten des Geodaten Importers}
 \label{Starten des Geodaten Importers}
 Der Geodaten Importer wird mittels des Shellskripts,
-dass auch für die Konfiguration verwendet wird, von einer Konsole
-gestartet. Dazu führen Sie folgenden Befehl aus:\\
+dass auch für die Konfiguration verwendet wird, von einer Konsole
+gestartet. Dazu führen Sie folgenden Befehl aus:\\
 
 \begin{lstlisting}
     sh ./run_geo.sh pfad/zur/beispiel.gew > geo-import.log
 \end{lstlisting}
 
-Bezüglich des übergebenen Pfades siehe auch Kapitel \ref{start-hydr}.
-Der Importer wird nun gestartet. Sämtliche Log-Ausgaben werden in die Datei
+Bezüglich des übergebenen Pfades siehe auch Kapitel \ref{start-hydr}.
+Der Importer wird nun gestartet. Sämtliche Log-Ausgaben werden in die Datei
 $geo-import.log$ geschrieben.
 
 
--- a/backend/doc/documentation/de/importer-hydr-morph.tex	Thu Mar 04 12:25:11 2021 +0100
+++ b/backend/doc/documentation/de/importer-hydr-morph.tex	Thu Mar 04 13:05:19 2021 +0100
@@ -1,47 +1,47 @@
 \section{Fachdatenimport}
 
-Der Fachdatenimporter dient dazu, hydrologische und morphologische Gewässerdaten
+Der Fachdatenimporter dient dazu, hydrologische und morphologische Gewässerdaten
 aus dem Dateisystem in die FLYS3-Datenbank zu importieren. Das Werkzeug
 orientiert sich hierbei an der Dateihierachie, so wie sie auch von Desktop-FLYS
 ausgelesen wird. Der Import Vorgang ist in zwei Phasen unterteilt:
 
 \begin{itemize}
-    \item Lesen aller Daten eines Gewässers aus dem Dateisystem.
+    \item Lesen aller Daten eines Gewässers aus dem Dateisystem.
     \item Schreiben der erfolgreich eingelesenen Daten in die Datenbank.
 \end{itemize}
 
-Beim Import wird versucht, Datensätze nicht zu importieren,
+Beim Import wird versucht, Datensätze nicht zu importieren,
 die bereits in der Datenbank vorhanden sind.
 Dies kann aber nicht immer eindeutig bestimmt werden,
-so dass vor dem Import geänderter Daten
-ein Löschen der entsprechenden Datensätze in der Datenbank notwendig sein kann,
-da sonst möglicherweise aus fachlicher Sicht Duplikate in der Datenbank vorhanden sind,
-geänderte Daten nicht importiert werden
+so dass vor dem Import geänderter Daten
+ein Löschen der entsprechenden Datensätze in der Datenbank notwendig sein kann,
+da sonst möglicherweise aus fachlicher Sicht Duplikate in der Datenbank vorhanden sind,
+geänderte Daten nicht importiert werden
 oder es zu unerwarteten Fehlern kommt.
 
-Sollte beim Lese- oder Schreib-Vorgang eines Gewässers ein Fehler auftreten, so
-werden sämtliche Daten des Gewässers verworfen. Beide Phasen zusammen bilden
+Sollte beim Lese- oder Schreib-Vorgang eines Gewässers ein Fehler auftreten, so
+werden sämtliche Daten des Gewässers verworfen. Beide Phasen zusammen bilden
 somit eine Transaktion.
 
 \textbf{Hinweis}
 \\Der Import geht, wie auch Desktop-FLYS, davon aus, dass die Dateien Latin-1
 encodiert vorliegen! Stellen Sie also sicher, dass das von Ihnen verwendete
-Encoding korrekt ist. Andernfalls ist es möglich, dass es während des Imports zu
+Encoding korrekt ist. Andernfalls ist es möglich, dass es während des Imports zu
 unerwarteten Problemen kommt.
 
 Der Importer ist ein in Java geschriebenes Werkzeug und kann von der Konsole aus
-gestartet werden. Sämtlich Konfigurationen können über sogenannte
-\textit{System-Properties} übergeben werden. Eine \textit{System-Property} wird
-dabei mittels \textit{-Dkey=value} beim Start übergeben. Im folgenden Beispiel
-würde der Importer mit einer Konfiguration \textit{flys.backend.importer.dry.run},
+gestartet werden. Sämtlich Konfigurationen können über sogenannte
+\textit{System-Properties} übergeben werden. Eine \textit{System-Property} wird
+dabei mittels \textit{-Dkey=value} beim Start übergeben. Im folgenden Beispiel
+würde der Importer mit einer Konfiguration \textit{flys.backend.importer.dry.run},
 welche den Wert \textit{true} gesetzt hat, gestartet.
 
 \begin{lstlisting}
     java -Dflys.backend.importer.dry.run=true de.intevation.flys.importer.Importer
 \end{lstlisting}
 
-Auf gleiche Weise können dem Importer sämtliche Optionen zur Konfiguration
-beim Start mitgegeben werden. Im Folgenden werden die möglichen \textit{System-Properties} und
+Auf gleiche Weise können dem Importer sämtliche Optionen zur Konfiguration
+beim Start mitgegeben werden. Im Folgenden werden die möglichen \textit{System-Properties} und
 ihre Auswirkung auf den Import genauer beschrieben. In den Kapiteln
 \ref{configuration} und \ref{start-hydr} wird zur Einfachheit jedoch ein
 Shellskript verwendet, das eine Standardkonfiguration vorgibt und den Importer
@@ -50,45 +50,45 @@
 
 \subsection{Importierte Daten}
 \label{import_data}
-In diesem Kapitel werden die verschiedenen Daten aufgelistet und erläutert, wie sie vom
+In diesem Kapitel werden die verschiedenen Daten aufgelistet und erläutert, wie sie vom
 Importer eingelesen werden.
 
-\subsubsection{Wasserstandsmodell-Stammdaten und Höhenreferenz (Basis-*.wst-Datei)}
+\subsubsection{Wasserstandsmodell-Stammdaten und Höhenreferenz (Basis-*.wst-Datei)}
 Mit \textbf{-Dflys.backend.importer.skip.wst=true} kann der
-der Import von Wasserständen der Basis-*.wst-Datei unterdrückt werden.
-Aus der Basis-*.wst-Datei wird auch die Höhenreferenz und -einheit
-des Gewässers ausgelesen (z.B. 'NN + m'),
-sowie die Fließrichtung des Gewässers relativ zur Stationierung ermittelt.
+der Import von Wasserständen der Basis-*.wst-Datei unterdrückt werden.
+Aus der Basis-*.wst-Datei wird auch die Höhenreferenz und -einheit
+des Gewässers ausgelesen (z.B. 'NN + m'),
+sowie die Fließrichtung des Gewässers relativ zur Stationierung ermittelt.
 Der Import dieser Informationen in die Datenbank wird daher ebenfalls durch
-diese Option unterdrückt.
-Da es sich hierbei um Gewässer-Stammdaten handelt,
-kann diese Option erst genutzt werden, wenn sich das Gewässer bereits
+diese Option unterdrückt.
+Da es sich hierbei um Gewässer-Stammdaten handelt,
+kann diese Option erst genutzt werden, wenn sich das Gewässer bereits
 in der Datenbank befindet.
 
 \subsubsection{Pegel-Stammdaten (PEGEL.GLT, *.at und *.sta-Dateien)}
 Der Import von Pegel- und Stammdaten kann mit \textbf{'-Dflys.backend.importer.skip.gauges=true'}
-unterdrückt werden. Die PEGEL.GLT-Datei, die neben der Basis-*.wst-Datei liegt, wird zuerst
+unterdrückt werden. Die PEGEL.GLT-Datei, die neben der Basis-*.wst-Datei liegt, wird zuerst
 ausgelesen. Es werden nur Stammdaten von Pegeln geladen, die in der PEGEL.GLT-Datei
 vermerkt sind.
 
 Die System-Property \textbf{flys.backend.main.value.types} kann einen String
-mit gültigen Typen von Stammdaten enthalten. Vorbelegt ist \textit{QWTD-}.
+mit gültigen Typen von Stammdaten enthalten. Vorbelegt ist \textit{QWTD-}.
 
 \subsubsection{Streckenfavoriten (*.km-Dateien)}
 Der Import der Streckenfavoriten kann mit \textbf{-Dflys.backend.importer.skip.annotations=true}
-unterdrückt werden.
-Ausgehend vom Verzeichnis \textit{./Hydrologie} des Gewässers
+unterdrückt werden.
+Ausgehend vom Verzeichnis \textit{./Hydrologie} des Gewässers
 werden die Verzeichnisse \textit{./Basisdaten}, \textit{./Streckendaten}
 und \textit{../Morphologie/Streckendaten} nach *.km-Dateien durchsucht.
 
 Zur Klassifikation von Streckenfavoriten muss mittels\\
 \textbf{-Dflys.backend.importer.annotation.types=DATEI} der Pfad zu einer
 XML-Datei angegeben werden. In dieser Datei werden die Typen und Regeln
-festgelegt, anhand derer die Klassifikation während des Import-Vorgangs
+festgelegt, anhand derer die Klassifikation während des Import-Vorgangs
 vorgenommen wird. Details hierzu befinden sich im Kapitel \ref{annotation-types}.
 
-\subsubsection{Bundeswasserstraßen-IDs}
-Der Import und die Zuweisung der Bundeswasserstraßen-IDs kann unterbunden werden
+\subsubsection{Bundeswasserstraßen-IDs}
+Der Import und die Zuweisung der Bundeswasserstraßen-IDs kann unterbunden werden
 mit \textbf{-Dflys.backend.importer.skip.bwastr=true}.
 Beim Import wird davon ausgegangen, dass sich die Datei \textbf{BWASTR\_ID.csv}
 neben der oder den zu importierenden gew-Dateien befindet.
@@ -96,7 +96,7 @@
 \subsubsection{Historische Abflusstafeln (*.at-Dateien)}
 Mit \textbf{'-Dflys.backend.importer.skip.historical.discharge.tables=true'}
 kann der Import von historischen Abflusstafeln
-unterdrückt werden. Diese Flagge wird nur ausgewertet, wenn überhaupt
+unterdrückt werden. Diese Flagge wird nur ausgewertet, wenn überhaupt
 Pegel-Daten (siehe oben) importiert werden.
 
 % Mittels \textbf{-Dflys.backend.sta.parse.gauge.numbers=true} wird versucht, die
@@ -104,117 +104,117 @@
 % \textbf{Dies ist mit Vorsicht zu behandeln, denn die meisten STA-Dateien
 % enthalten invalide Pegelnummern.}
 
-\subsubsection{Zusätzliche Längsschnitte (*.zus, *.wst-Dateien)}
+\subsubsection{Zusätzliche Längsschnitte (*.zus, *.wst-Dateien)}
 Mit \textbf{-Dflys.backend.importer.skip.extra.wsts=true} kann
-der Import von zusätzlichen Längs\-schnitten
-unterdrückt werden. Es werden die *.zus- und *.wst-Dateien aus dem Verzeichnis
+der Import von zusätzlichen Längs\-schnitten
+unterdrückt werden. Es werden die *.zus- und *.wst-Dateien aus dem Verzeichnis
 \textit{../Zus.Laengsschnitte} relativ zur
 \textit{gewaesser}.wst-Datei betrachtet.
 
 \subsubsection{Fixierungen (*.wst-Dateien)}
 Der Import von Fixierungen kann mit \textbf{-Dflys.backend.importer.skip.fixations=true}
-unterdrückt werden. Es werden die *.wst-Dateien aus
+unterdrückt werden. Es werden die *.wst-Dateien aus
 \textit{../Fixierungen} relativ zur \textit{gewaesser}.wst-Datei betrachtet.
 
 \subsubsection{Amtliche Linien (*.wst-Dateien)}
 Der Import von amtlichen Linien kann mit \textbf{-Dflys.backend.importer.skip.official.lines=true}
-unterdrückt werden. Es werden die \textit{Amtl\_Linien.wst}-Dateien aus dem
+unterdrückt werden. Es werden die \textit{Amtl\_Linien.wst}-Dateien aus dem
 Verzeichnis \textit{../Basisdaten} und \textit{../Fixierungen} relativ zur
 \textit{gewaesser.wst}-Datei betrachtet.
 
-Für die Zuordnung zu den Hauptwerten wird zudem die Datei
-\textit{Amtl\_Linien.config} benötigt.
+Für die Zuordnung zu den Hauptwerten wird zudem die Datei
+\textit{Amtl\_Linien.config} benötigt.
 
 \subsubsection{Profilspuren (*.prf-Dateien)}
 Der Import von Profilspuren kann mit \textbf{-Dflys.backend.importer.skip.prfs=true}
-unterdrückt werden. Es werden rekursiv alle *.prf-Dateien aus \textit{../../..}
+unterdrückt werden. Es werden rekursiv alle *.prf-Dateien aus \textit{../../..}
 relativ zur gewaesser.wst-Datei betrachtet.
 
 Vor dem Import von Profilspuren werden mit Hilfe
-eines Längen- und eines MD5-Summen-Vergleichs inhaltliche Duplikate
+eines Längen- und eines MD5-Summen-Vergleichs inhaltliche Duplikate
 ausgeschlossen.
 
 \subsubsection{Profilspuren (*.w80-Dateien)}
 Der Import von W80-Profilspuren kann mit \textbf{-Dflys.backend.importer.skip.w80s=true}
-unterdrückt werden. Es werden rekursiv alle *.w80-Dateien aus \textit{../../..}
+unterdrückt werden. Es werden rekursiv alle *.w80-Dateien aus \textit{../../..}
 relativ zur \textit{gewaesser}.wst-Datei betrachtet.
 
 \subsubsection{Profilspuren (*.d50-Dateien)}
 Der Import von D50-Profilspuren kann mit \textbf{-Dflys.backend.importer.skip.da50s=true}
-unterdrückt werden. Es werden rekursiv alle *.d50-Dateien aus \textit{../../..}
+unterdrückt werden. Es werden rekursiv alle *.d50-Dateien aus \textit{../../..}
 relativ zur \textit{gewaesser}.wst-Datei betrachtet.
 
 \subsubsection{Profilspuren (*.d66-Dateien)}
 Der Import von D66-Profilspuren kann mit \textbf{-Dflys.backend.importer.skip.da66s=true}
-unterdrückt werden. Es werden rekursiv alle *.d66-Dateien aus \textit{../../..}
+unterdrückt werden. Es werden rekursiv alle *.d66-Dateien aus \textit{../../..}
 relativ zur \textit{gewaesser}.wst-Datei betrachtet.
 
 \subsubsection{Profilspuren (*.csv-Dateien)}
 Der Import von CSV-Profilspuren kann mit
 \textbf{-Dflys.backend.importer.skip.w80.csvs=true}
-unterdrückt werden.
+unterdrückt werden.
 Es werden rekursiv alle *.csv-Dateien aus
 \textit{./Geodaesie/Querprofile/QP-Daten} im Verzeichnis des
-Gewässers betrachtet.
+Gewässers betrachtet.
 
 \subsubsection{Hydraulische Kennzahlen (*.hyk)}
-Der Import von hydraulischen Kennzahlen kann mit \textbf{-Dflys.backend.importer.skip.hyks=true} unterdrückt
+Der Import von hydraulischen Kennzahlen kann mit \textbf{-Dflys.backend.importer.skip.hyks=true} unterdrückt
 werden. Es werden rekursiv alle *.hyk-Dateien aus \textit{../../..} relativ zur
-\textit{gewaesser}.wst-Datei betrachtet. Vor dem Import werden mit Hilfe eines Längen- und
+\textit{gewaesser}.wst-Datei betrachtet. Vor dem Import werden mit Hilfe eines Längen- und
 eines MD5-Summen-Vergleichs inhaltliche Duplikate ausgeschlossen.
 
 \subsubsection{Hochwassermarken (*.zus, *.wst)}
 Der Import von Hochwassermarken kann mit \textbf{-Dflys.backend.importer.skip.flood.water=true}
-unterdrückt werden. Es werden die *.zus- und *.wst-Dateien aus dem Verzeichnis
+unterdrückt werden. Es werden die *.zus- und *.wst-Dateien aus dem Verzeichnis
 \textit{../HW-Marken} relativ zur \textit{gewaesser}.wst-Datei betrachtet.
 
 \subsubsection{Hochwasserschutzanlagen (*.zus, *.wst)}
 Mit \textbf{-Dflys.backend.importer.skip.flood.protection=true}
 kann der Import von Hochwasserschutzanlagen
-unterdrückt werden. Es werden die *.zus- und *.wst-Dateien aus dem Verzeichnis
+unterdrückt werden. Es werden die *.zus- und *.wst-Dateien aus dem Verzeichnis
 \textit{../HW-Schutzanlagen} relativ zur \textit{gewaesser.wst}-Datei betrachtet.
 
 \subsubsection{Messstellen-Stammdaten}
 Mit \textbf{-Dflys.backend.importer.skip.measurement.stations=true}
 kann der Import von Messstellen-Stammdaten aus
 \textit{Morphologie/Basisdaten/Messstellen-Stammdaten.csv}
-unterdrückt werden.
+unterdrückt werden.
 
-\subsubsection{Sohlhöhen (Peilungen)}
+\subsubsection{Sohlhöhen (Peilungen)}
 Mit \textbf{-Dflys.backend.importer.skip.bed.height=true}
-kann der Import von Sohlhöhen-Peilungen unterdrückt werden.
+kann der Import von Sohlhöhen-Peilungen unterdrückt werden.
 Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Sohlhoehen/Einzeljahre} geladen.
 
 \subsubsection{Sedimentdichte}
 Der Import der Sedimentdichte kann mit
 \textbf{-Dflys.backend.importer.skip.sediment.density=true}
-unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
+unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Sedimentdichte} geladen.
 
-\subsubsection{Porosität}
-Der Import der Porositätsdaten kann mit
+\subsubsection{Porosität}
+Der Import der Porositätsdaten kann mit
 \textbf{-Dflys.backend.importer.skip.porosity=true}
-unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
+unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Porositaet} geladen.
 
 \subsubsection{Morphologische Breite}
 Mit \textbf{-Dflys.backend.importer.skip.morphological.width=true}
-kann der Import der morphologischen Breite unterdrückt werden.
+kann der Import der morphologischen Breite unterdrückt werden.
 Es werden alle CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/morphologische\_Breite} geladen.
 
-\subsubsection{Fließgeschwindigkeit}
-Der Import der Fließgeschwindigkeit kann mit
+\subsubsection{Fließgeschwindigkeit}
+Der Import der Fließgeschwindigkeit kann mit
 \textbf{-Dflys.backend.importer.skip.flow.velocity=true}
-unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis\\
+unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis\\
 \textit{Morphologie/Geschwindigkeit\_Schubspannung/Modellrechnungen} und\\
 \textit{Morphologie/Geschwindigkeit\_Schubspannung/v-Messungen} geladen.
 
 \subsubsection{Sedimentfracht an Messstellen}
 Mit
 \textbf{-Dflys.backend.importer.skip.sediment.load=true}
-kann der Import der Sedimentfracht an Messstellen unterdrückt werden.
+kann der Import der Sedimentfracht an Messstellen unterdrückt werden.
 Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Fracht/Messstellen} geladen.
 Dabei werden die Dateien aus den
@@ -223,14 +223,14 @@
 \textit{Einzeljahre}, \textit{Epochen} und
 \textit{amtliche Epochen} gespeichert.
 
-Voraussetzung für den Import ist, dass die Messstellen-Stammdaten
+Voraussetzung für den Import ist, dass die Messstellen-Stammdaten
 bereits importiert sind.
 
-\subsubsection{Sedimentfracht (Längsschnitt-Daten)}
+\subsubsection{Sedimentfracht (Längsschnitt-Daten)}
 Mit
 \textbf{-Dflys.backend.importer.skip.sediment.load.ls=true}
-kann der Import der Längsschnitt-Daten (auf freier Strecke)
-der Sedimentfracht unterdrückt werden.
+kann der Import der Längsschnitt-Daten (auf freier Strecke)
+der Sedimentfracht unterdrückt werden.
 Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Fracht/Laengsschnitte} geladen.
 Dabei werden die Dateien aus den
@@ -239,32 +239,32 @@
 \textit{Einzeljahre}, \textit{Epochen} und
 \textit{amtliche Epochen} gespeichert.
 
-\subsubsection{Wasserspiegellagen für M-INFO}
+\subsubsection{Wasserspiegellagen für M-INFO}
 Mit \textbf{-Dflys.backend.importer.skip.waterlevels=true}
-kann der Import der für M-INFO spezifischen Wasserspiegellagen
-unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
+kann der Import der für M-INFO spezifischen Wasserspiegellagen
+unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Fixierungsanalyse/Wasserspiegellagen} geladen.
 
-\subsubsection{Wasserspiegeldifferenzen für M-INFO}
+\subsubsection{Wasserspiegeldifferenzen für M-INFO}
 Mit \textbf{-Dflys.backend.importer.skip.waterlevel.differences=true}
-kann der Import der für M-INFO spezifischen Wasserspiegeldifferenzen
-unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
+kann der Import der für M-INFO spezifischen Wasserspiegeldifferenzen
+unterdrückt werden. Es werden die CSV-Dateien aus dem Verzeichnis
 \textit{Morphologie/Fixierungsanalyse/Wasserspiegeldifferenzen} geladen.
 
 \subsubsection{Transport-Abfluss-Beziehung}
 Mit \textbf{flys.backend.importer.skip.sq.relation=true}
-kann der Import der Daten für die Transport-Abfluss-Beziehung
-unterdrückt werden. Es werden die CSV-Dateien unter
+kann der Import der Daten für die Transport-Abfluss-Beziehung
+unterdrückt werden. Es werden die CSV-Dateien unter
 \textit{Feststofftransport-Abfluss-Beziehung} geladen.
 
-Voraussetzung für den Import ist, dass die Messstellen-Stammdaten
+Voraussetzung für den Import ist, dass die Messstellen-Stammdaten
 bereits importiert sind.
 
 \subsection{Klassifikation von Streckenfavoriten}
 \label{annotation-types}
-Streckenfavoriten werden aus KM-Dateien importiert. Um die einzelnen Einträge
-einer Kategorie (Brücke, Pegel, etc.) zuzuordnen, kann eine XML angegeben werden,
-in der Regeln für diese Klassifikation definiert werden. Schematisch gliedert
+Streckenfavoriten werden aus KM-Dateien importiert. Um die einzelnen Einträge
+einer Kategorie (Brücke, Pegel, etc.) zuzuordnen, kann eine XML angegeben werden,
+in der Regeln für diese Klassifikation definiert werden. Schematisch gliedert
 sich diese Datei in die zwei Bereiche 'types' und 'patterns':
 
 \begin{lstlisting}
@@ -288,42 +288,42 @@
 
 \begin{lstlisting}
   <type name="Pegel"/>
-  <type name="Brücke"/>
+  <type name="Br%*ü*)cke"/>
   ...
   <type name="Sonstige" default="true"/>
 \end{lstlisting}
 
 Das Attribut 'default' darf maximal einmal vergeben werden und besagt, dass diese
-Kategorie gewählt werden soll, wenn keine andere Kategorie zugeordnet werden kann.
+Kategorie gewählt werden soll, wenn keine andere Kategorie zugeordnet werden kann.
 
-In der Sektion 'patterns' werden dann die Regeln definiert, die einzelne Einträge
-den zuvor definierten Kategorien zuordnet. Hierfür können zwei Arten von
+In der Sektion 'patterns' werden dann die Regeln definiert, die einzelne Einträge
+den zuvor definierten Kategorien zuordnet. Hierfür können zwei Arten von
 Definitionen angegeben werden:
 
 \begin{lstlisting}
-  <file pattern="^Brücken$" type="Brücke"/>
+  <file pattern="^Br%*ü*)cken$" type="Br%*ü*)cke"/>
 \end{lstlisting}
 
 oder
 
 \begin{lstlisting}
-  <line pattern="^Brücke[:\s].*$" type="Brücke"/>
+  <line pattern="^Br%*ü*)cke[:\s].*$" type="Br%*ü*)cke"/>
 \end{lstlisting}
 
 Die erste Variante bestimmt die Kategorie, die pro KM-Datei gelten soll.
-\textit{pattern} ist hierbei ein regulärer Ausdruck, der auf den Dateinamen
-angewandt wird. Passt der Name der Datei auf den regulären Ausdruck, wird
+\textit{pattern} ist hierbei ein regulärer Ausdruck, der auf den Dateinamen
+angewandt wird. Passt der Name der Datei auf den regulären Ausdruck, wird
 \textit{type} als Vorgabe angenommen. Treffen mehrere \textit{file}-Regeln zu,
 wird der erste Treffer angewandt. Findet keine der \textit{file}-Regeln Anwendung, wird
-die Kategorie ausgewählt, die in der \textit{types}-Section das Attribut
+die Kategorie ausgewählt, die in der \textit{types}-Section das Attribut
 \textit{default} gesetzt hat.
 
 Die zweite Regel-Variante \textit{line} wird auf jeden Eintrag innerhalb einer KM-Datei
 auf den Bezeichner der Streckenfavoriten angewandt. Als Muster dient auch hier
-ein regulärer Ausdruck, der über das Attribut \textit{pattern} definiert wird.
-Die Kategorie wird im Trefferfall über das Attribut \textit{type} bestimmt.
-Treffen mehrere Regeln zu, wird die Kategorie gewählt, die zum ersten Treffer
-gehört. Trifft keine Regel zu, wird der Eintrag der Kategorie zugeteilt, die für
+ein regulärer Ausdruck, der über das Attribut \textit{pattern} definiert wird.
+Die Kategorie wird im Trefferfall über das Attribut \textit{type} bestimmt.
+Treffen mehrere Regeln zu, wird die Kategorie gewählt, die zum ersten Treffer
+gehört. Trifft keine Regel zu, wird der Eintrag der Kategorie zugeteilt, die für
 die beinhaltende Datei als Vorgabe gilt.
 
 
@@ -332,8 +332,8 @@
 Zum Starten des Importers ist es notwendig, in der Datei
 \textit{./run\_hydr\_morph.sh} die Variablen am Anfang der Datei
 anzupassen. Im folgenden werden notwendige und optionale Einstellungen
-beschrieben, die beim Starten des Importers berücksichtigt werden. Folgende
-Einstellungen sind zwangsläufig an die bestehende Umgebung anzupassen:
+beschrieben, die beim Starten des Importers berücksichtigt werden. Folgende
+Einstellungen sind zwangsläufig an die bestehende Umgebung anzupassen:
 
 \textbf{BACKEND\_USER}
 \\Der Nutzername, der zum Verbinden zur Datenbank verwendet werden soll.
@@ -345,7 +345,7 @@
 \textbf{BACKEND\_HOST}
 \\Der Datenbank-Host. In der Regel sollte hier \textit{localhost} eingetragen
 werden, da es empfohlen wird, den Importer auf dem selben Host zu starten, auf
-dem auch die Datenbank läuft.
+dem auch die Datenbank läuft.
 
 \textbf{BACKEND\_PORT}
 \\Der Port auf dem die Datenbank zu erreichen ist. Bei einer Oracle XE Instanz
@@ -356,15 +356,15 @@
 Instanz.
 
 \textbf{BACKEND\_DB\_PREFIX}
-\\Der Präfix zum Aufbau einer Datenbankverbindung. Für Oracle z.B.: \textit{jdbc:oracle:thin:@}.
+\\Der Präfix zum Aufbau einer Datenbankverbindung. Für Oracle z.B.: \textit{jdbc:oracle:thin:@}.
 
 \textbf{BACKEND\_DB\_DRIVER}
 \\Der Name des JDBC-Treibers, der es erlaubt das Protokoll der Datenbank zu
-sprechen. Im Falle einer Oracle XE wäre dies z.B.: \textit{oracle.jdbc.OracleDriver}.
+sprechen. Im Falle einer Oracle XE wäre dies z.B.: \textit{oracle.jdbc.OracleDriver}.
 
 \textbf{BACKEND\_DB\_DIALECT}
 \\Der Hibernate-Dialekt, den die Datenbank versteht. Im Falle einer Oracle-XE
-wäre dies z.B.: \textit{org.hibernate.dialect.OracleDialect}.
+wäre dies z.B.: \textit{org.hibernate.dialect.OracleDialect}.
 
 
 Weitere Details zum Verbinden zu einer Oracle Datenbank finden Sie unter\\
@@ -378,48 +378,48 @@
 Start anzugeben. \textit{LOG4J\_CONFIG} verweist in diesem Fall auf eine externe
 Datei zur Konfiguration von Log4J. Im Standardfall wird die Datei
 \textit{conf/log4j.properties} verwendet, welche eine sinnvolle Standardkonfiguration
-enthält. Sollten Sie diese Konfiguration verwenden, wird beim Import eine
-Log-Datei namens \textit{import.log} erstellt, die maximal 100 MB groß werden
-kann. Sollte die Log-Datei größer als 100 MB anwachsen, wird die aktuelle Datei
+enthält. Sollten Sie diese Konfiguration verwenden, wird beim Import eine
+Log-Datei namens \textit{import.log} erstellt, die maximal 100 MB groß werden
+kann. Sollte die Log-Datei größer als 100 MB anwachsen, wird die aktuelle Datei
 nach \textit{import.log.1} umbenannt und eine neue Datei \textit{import.log}
-wird begonnen. Maximal werden 10 Log-Dateien gespeichert. Für weitere Details
+wird begonnen. Maximal werden 10 Log-Dateien gespeichert. Für weitere Details
 zu Log4J siehe Online Dokumentation unter
 \href{http://logging.apache.org/log4j/1.2/}{http://logging.apache.org/log4j/1.2/}
 
 
 \textbf{IMPORTER\_MAINVALUE\_TYPES}
-\\Diese Einstellung erlaubt die Angabe eines Textes, der aus den gültigen Typen
-für Hauptwerte zusammengesetzt ist. \textit{QWTD-} ist standardmäßig gesetzt.
+\\Diese Einstellung erlaubt die Angabe eines Textes, der aus den gültigen Typen
+für Hauptwerte zusammengesetzt ist. \textit{QWTD-} ist standardmäßig gesetzt.
 
 \textbf{IMPORTER\_ANNOTATION\_TYPES}
 \\Diese Einstellung verweist auf eine Datei (relativ zum Ort der \textit{run\_hydr\_morph.sh}
-im Dateisystem), die die möglichen Typen von Streckenfavoriten und deren Regeln
+im Dateisystem), die die möglichen Typen von Streckenfavoriten und deren Regeln
 definiert. Siehe hierzu auch Kapitel \ref{annotation-types}.
 
 
-Die im folgenden beschriebenen Einstellungen können jeweils die Werte
+Die im folgenden beschriebenen Einstellungen können jeweils die Werte
 \textit{true} oder \textit{false} annehmen und sind optional anzupassen.
 
 \textbf{IMPORTER\_DRY\_RUN}
 \\Falls \textit{true} gesetzt wird, wird der Import nur simuliert. Es werden
-keine Daten in die Datenbank geschrieben. Die Log-Dateien können dann verwendet werden, um Fehler in den Daten vor dem Schreiben in die
+keine Daten in die Datenbank geschrieben. Die Log-Dateien können dann verwendet werden, um Fehler in den Daten vor dem Schreiben in die
 Datenbank zu ermitteln.
 
-Die weiteren Optionen haben selbsterklärende Namen und
+Die weiteren Optionen haben selbsterklärende Namen und
 entsprechen je einer System-Property,
-die in Kapitel \ref{import_data} bereits erläutert wurde.
+die in Kapitel \ref{import_data} bereits erläutert wurde.
 
 \subsection{Fehler und Warnungen}
-Selbsterklärende Meldungen sind hier nicht alle aufgeführt.
+Selbsterklärende Meldungen sind hier nicht alle aufgeführt.
 
 \subsubsection{Fehler}
 
 \textbf{error while parsing gew}
-\\Die GEW-Datei ist fehlerhaft oder konnte nicht geöffnet werden.
+\\Die GEW-Datei ist fehlerhaft oder konnte nicht geöffnet werden.
 
 \textbf{River not yet in database. You cannot skip importing waterlevel model.}
 \\\textbf{-Dflys.backend.importer.skip.wst=true} wurde verwendet,
-obwohl sich das Gewässer noch nicht in der Datenbank befindet
+obwohl sich das Gewässer noch nicht in der Datenbank befindet
 (siehe Kapitel \ref{import_data}).
 
 \textbf{WST: Stations in 'XYZ' near line \# not ordered. File rejected.}
@@ -427,16 +427,16 @@
 absteigend geordnet. Die Datei wird verworfen.
 
 \textbf{File 'XYZ' is broken!}
-\\Die Datei XYZ ist inkonsistent und führt zu Fehlern.
+\\Die Datei XYZ ist inkonsistent und führt zu Fehlern.
 
 \textbf{Error while parsing file for morph. width.}
 \\Beim Lesen der morphologischen Breite trat ein Fehler auf.
 
 \textbf{Error while storing flow velocity model.}
-\\Beim Schreiben eines Fließgeschwindigkeitsmodells trat ein Fehler auf.
+\\Beim Schreiben eines Fließgeschwindigkeitsmodells trat ein Fehler auf.
 
 \textbf{Error while storing flow velocity measurement.}
-\\Beim Schreiben einer Fließgeschwindigkeitsmessung trat ein Fehler auf.
+\\Beim Schreiben einer Fließgeschwindigkeitsmessung trat ein Fehler auf.
 
 \textbf{Error while storing sediment yield.}
 \\Beim Schreiben einer Sedimentablagerung trat ein Fehler auf.
@@ -448,12 +448,12 @@
 \\Keine \textit{Stammdaten\_Messstellen.csv} gefunden.
 
 \textbf{No measurement stations found at km \#}
-\\Für eine in einer SQ-Beziehungs-Datei gegebene Station liegt
+\\Für eine in einer SQ-Beziehungs-Datei gegebene Station liegt
 keine Messstelle vor.
 
 \textbf{No km for measurement station: Can not reference measurement station: ...}
 \\In der gegebenen Zeile einer SQ-Beziehungs-Datei liegt ist keine
-Station gegeben. Damit ist keine Zuordnung zu einer Messstelle möglich.
+Station gegeben. Damit ist keine Zuordnung zu einer Messstelle möglich.
 Die Zeile wird verworfen.
 
 \textbf{Incomplete SQ-relation row (missing a, b, Qmax or parameter): ...}
@@ -468,8 +468,8 @@
 \\Bekannte Aufnahmearten:
 \begin{itemize}
 \item Querprofile
-\item Flächenpeilung
-\item Flächen- u. Querprofilpeilungen
+\item Flächenpeilung
+\item Flächen- u. Querprofilpeilungen
 \item DGM
 \item TIN
 \item Modell
@@ -479,25 +479,25 @@
 \\Beim Lesen einer PRF-Datei trat ein Fehler auf.
 
 \textbf{Error closing PRF file.}
-\\Beim Schließen einer PRF-Datei trat ein Fehler auf.
+\\Beim Schließen einer PRF-Datei trat ein Fehler auf.
 
 \textbf{HYK 1: not enough elements in line \#}
-\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
+\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
 
 \textbf{HYK 2: not enough elements in line \#}
-\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
+\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
 
 \textbf{HYK 5: not enough elements in line \#}
-\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
+\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
 
 \textbf{HYK 6: not enough elements in line \#}
-\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
+\\Eine Zeile in einer HYK-Datei hat nicht genügend Elemente.
 
 \textbf{HYK: parsing num zones, bottom or top height failed in line \#}
-\\Die Anzahl der Zonen oder Daten über die Zonen sind nicht korrekt.
+\\Die Anzahl der Zonen oder Daten über die Zonen sind nicht korrekt.
 
 \textbf{HYK: HYK: number of flow zones mismatches in line \#}
-\\Die Anzahl der Zonen oder Daten über die Zonen sind nicht korrekt.
+\\Die Anzahl der Zonen oder Daten über die Zonen sind nicht korrekt.
 
 \textbf{HYK: cannot parse number in line \#}
 \\Eine Zahl wurde erwartet.
@@ -506,32 +506,32 @@
 \\Beim Lesen einer HYK-Datei trat ein Fehler auf.
 
 \textbf{HYK: Error closing file.}
-\\Beim Schließen einer HYK-Datei trat ein Fehler auf.
+\\Beim Schließen einer HYK-Datei trat ein Fehler auf.
 
 \textbf{Null Start time will be ignored}
-\\Für ein Zeitintervall wurde keine Anfangszeit gegeben.
+\\Für ein Zeitintervall wurde keine Anfangszeit gegeben.
 
 \textbf{Skipping malformed w80csv line \#}
 \\Die genannte Zeile einer QP-Daten-CSV-Datei wurde verworfen
-(z.B.\ weil keine Höhe gegeben war).
+(z.B.\ weil keine Höhe gegeben war).
 
 \subsubsection{Warnungen}
 \textbf{No unit given. Waterlevel-model WST-file has to be imported already.}
-\\Es wird keine Höhenreferenz mit dazugehöriger Einheit importiert.
-Dies ist nur möglich, wenn sich die Gewässer-Stammdaten bereits
+\\Es wird keine Höhenreferenz mit dazugehöriger Einheit importiert.
+Dies ist nur möglich, wenn sich die Gewässer-Stammdaten bereits
 in der Datenbank befinden (siehe Kapitel \ref{import_data}).
 
 \textbf{no unit and height reference found. Using default.}
-\\Aus einer WST-Datei konnte keine Höhenreferenz
-mit dazugehöriger Einheit ausgelesen werden.
-Als Default wird 'm ü. unbekannte Referenz' verwendet.
+\\Aus einer WST-Datei konnte keine Höhenreferenz
+mit dazugehöriger Einheit ausgelesen werden.
+Als Default wird 'm ü. unbekannte Referenz' verwendet.
 Dies hat nur im Falle der Basis-WST-Datei einen Einfluss auf den Import.
 
 \textbf{annotation type file 'XYZ' is not readable.}
 \\Die Datein XYZ kann nicht gelesen werden.
 
 \textbf{cannot parse annotation types file.}
-\\Während der Verarbeitung der Annotationsdatei ist Fehler aufgetreten.
+\\Während der Verarbeitung der Annotationsdatei ist Fehler aufgetreten.
 
 \textbf{Cannot read directory.}
 \\Verzeichnis konnte nicht gelesen werden.
@@ -540,17 +540,17 @@
 \\Keine Datei mit amtlichen Linien gefunden.
 
 \textbf{Invalid bwastr-id line: ...}
-\\Aus einer Zeile in \textbf{BWASTR\_ID.csv} konnte kein Gewässer bzw.
-Bundeswasserstraßen-ID gelesen werden.
+\\Aus einer Zeile in \textbf{BWASTR\_ID.csv} konnte kein Gewässer bzw.
+Bundeswasserstraßen-ID gelesen werden.
 
 \textbf{cannot read fixations wst file directory}
 \\Das Verzeichnis mit den Fixierungen kann nicht gelesen werden.
 
 \textbf{cannot read extra longitudinal wst file directory}
-\\Das Verzeichnis mit den zusätzlichen Längsschnitten kann nicht gelesen werden.
+\\Das Verzeichnis mit den zusätzlichen Längsschnitten kann nicht gelesen werden.
 
 \textbf{cannot read gauges from 'XYZ'}
-\\Die Pegelgültigkeiten können nicht gelesen werden.
+\\Die Pegelgültigkeiten können nicht gelesen werden.
 
 \textbf{'XYZ' does not exist. Gauge ignored.}
 \\Ein in PEGEL.GLT gegebener Pegel wird ignoriert,
@@ -565,10 +565,10 @@
 gefunden.
 
 \textbf{Skip invalid SedimentYield: time interval or unit null!}
-\\Eine Sedimentablagerung ist ungültig und wurde ausgelassen.
+\\Eine Sedimentablagerung ist ungültig und wurde ausgelassen.
 
 \textbf{skip flow velocity model: No discharge zone specified.}
-\\Da kein Abflussbereich angegeben wurde, wurde das Fließgeschwindigkeitsmodell ausgelassen.
+\\Da kein Abflussbereich angegeben wurde, wurde das Fließgeschwindigkeitsmodell ausgelassen.
 
 \textbf{skip invalid waterlevel - no unit set!}
 \\Ein einheitenloser Wasserstand wurde ausgelassen.
@@ -577,26 +577,26 @@
 \\Das Zeitformat wurde nicht erkannt.
 
 \textbf{skip invalid data line \#}
-\\Ungültige Datenzeile wurde ausgelassen.
+\\Ungültige Datenzeile wurde ausgelassen.
 
 \textbf{Error while parsing sq relation row \#}
-\\Eine Zeile in der S(Q)-Beziehung ist ungültig.
+\\Eine Zeile in der S(Q)-Beziehung ist ungültig.
 
 \textbf{GLT: no gauge found in line \#}
 \\In der GLT-Datei wurde ein Pegel erwartet, aber nicht gefunden.
 
 \textbf{GLT: line \# has not enough columns.}
-\\Eine Zeile in der Pegelgültigkeitsdatei hat nicht genug Spalten.
+\\Eine Zeile in der Pegelgültigkeitsdatei hat nicht genug Spalten.
 
 \textbf{Error while parsing flow velocity values.}
-\\Invalide Datenzeile in einer Datei mit einer Fließgeschwindigkeitsmessung.
+\\Invalide Datenzeile in einer Datei mit einer Fließgeschwindigkeitsmessung.
 
 \textbf{skip invalid data line: \#}
 \\Invalide Datenzeile (weniger als acht Spalten)
-in einer Datei mit einer Fließgeschwindigkeitsmessung.
+in einer Datei mit einer Fließgeschwindigkeitsmessung.
 
 \textbf{Unparseable flow velocity values: ...}
-\\Invalide Werte in einer Datenzeile einer Fließgeschwindigkeitsmessung.
+\\Invalide Werte in einer Datenzeile einer Fließgeschwindigkeitsmessung.
 
 \textbf{skip invalid waterlevel line: \#}
 \\Invalide Datenzeile in einer Datei mit Wasserstandsdifferenzen.
@@ -608,19 +608,19 @@
 \\Invalide Datenzeile in einer Datei mit Wasserstandsdifferenzen.
 
 \textbf{skip invalid MainValue part: \#}
-\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
+\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
 
 \textbf{skip invalid gauge part: \#}
-\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
+\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
 
 \textbf{Error while parsing Q value: $<Q>$}
-\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
+\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
 
 \textbf{skip invalid data line: \#}
-\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
+\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
 
 \textbf{Error while parsing flow velocity values.}
-\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
+\\Invalide Datenzeile in einer Datei Fließgeschwindigkeitsmodellen.
 
 \textbf{Error while parsing number from data row: \#}
 \\In der eingelesenen Zeile konnte keine Zahl gefunden werden.
@@ -660,7 +660,7 @@
 \\Die Pegelnummer ist invalide.
 
 \textbf{STA: Not enough columns for aeo and datum}
-\\AEO und Pegelnullpunkt können nicht ermittelt werden.
+\\AEO und Pegelnullpunkt können nicht ermittelt werden.
 
 \textbf{STA: cannot parse aeo or datum.}
 \\AEO oder Pegelnullpunkt sind invalide.
@@ -672,10 +672,10 @@
 \textbf{STA: Invalid start date ...}
 \textbf{STA: Invalid end date ...}
 \textbf{STA: Need start date.}
-\\Mögliche Datumsangabe zu Hauptwert ist kein gültiger Zeitraum.
+\\Mögliche Datumsangabe zu Hauptwert ist kein gültiger Zeitraum.
 
 \textbf{PRF: cannot open file $<FILE>$}
-\\Die PRF-Datei kann nicht geöffnet werden.
+\\Die PRF-Datei kann nicht geöffnet werden.
 
 \textbf{PRF: First line does not look like a PRF data pattern.}
 \\Erste Zeile entspricht nicht der PRF-Spezifikation.
@@ -696,10 +696,10 @@
 \\Vierte Zeile entspricht nicht der PRF-Spezifikation.
 
 \textbf{PRF: premature EOF. Expected skip row count.}
-\\Fünfte Zeile entspricht nicht der PRF-Spezifikation.
+\\Fünfte Zeile entspricht nicht der PRF-Spezifikation.
 
 \textbf{PRF: line 5 is not an positive integer.}
-\\Fünfte Zeile entspricht nicht der PRF-Spezifikation.
+\\Fünfte Zeile entspricht nicht der PRF-Spezifikation.
 
 \textbf{PRF: cannot extract km in line \#}
 \\Der gegebenen Zeile konnte die Station nicht entnommen werden.
@@ -723,16 +723,16 @@
 \\Invalider Q-Bereich
 
 \textbf{skip invalid waterlevel line: \#}
-\\Ungültige Wasserstands-Zeile.
+\\Ungültige Wasserstands-Zeile.
 
 \textbf{Error while parsing number values: \#}
-\\Ungültige Zahlenwerte.
+\\Ungültige Zahlenwerte.
 
 \textbf{ANN: not enough columns in line \#}
 \\Nicht genug Zeichenspalten in KM-Datei
 
 \textbf{ANN: invalid number in line \#}
-\\Ungültige Zahl.
+\\Ungültige Zahl.
 
 \textbf{ANN: cannot parse 'Unterkante' in line \#}
 \\Die Unterkante in einer KM-Datei konnte nicht gelesen werden.
@@ -744,7 +744,7 @@
 \\Ein Duplikat eines Streckenfavoriten wurde gefunden.
 
 \textbf{ANN: 'XYZ' is not a directory.}
-\\Unterverzeichnis konnte nicht geöffnet werden.
+\\Unterverzeichnis konnte nicht geöffnet werden.
 
 \textbf{ANN: cannot list directory 'XYZ'}
 \\Unterverzeichnis konnte nicht durchsucht werden.
@@ -753,10 +753,10 @@
 \\Meta-Informationen unbekannt. Werden ignoriert.
 
 \textbf{BHP: Error while parsing timeinterval!}
-\\Ungültiges Zeitinterval.
+\\Ungültiges Zeitinterval.
 
 \textbf{BHP: Error while parsing year!}
-\\Ungültige Jahresangabe.
+\\Ungültige Jahresangabe.
 
 \textbf{BHP: Error while parsing sounding width!}
 \\Unbekannte Peilungsbreite.
@@ -765,7 +765,7 @@
 \\Bereichsangabe fehlerhaft.
 
 \textbf{BHP: Could not parse sounding width in line '...'. -$>$ Set default value '0'}
-\\Peilbreite in gegebener Zeile wurde nicht als gültige Zahl erkannt. Setze 0.
+\\Peilbreite in gegebener Zeile wurde nicht als gültige Zahl erkannt. Setze 0.
 
 \textbf{Unparseable number in data row: \#}
 \\In der gegebenen Zeile wurde eine Zahl erwartet,
@@ -775,55 +775,55 @@
 \\Meta-Informationen unbekannt. Werden ignoriert.
 
 \textbf{MWP: skip invalid data line: \#}
-\\Ungültige Datenzeile wurde übersprungen.
+\\Ungültige Datenzeile wurde übersprungen.
 
 \textbf{MWP: unparseable number in data row: \#}
 \\Falsche Zahlenformat.
 
 \textbf{ANNCLASS: rule has no name}
-\\Klassifizierungsregel für Streckenfavoriten hat keinen Namen.
+\\Klassifizierungsregel für Streckenfavoriten hat keinen Namen.
 
 \textbf{ANNCLASS: pattern has no 'pattern' attribute.}
-\\Klassifizierungsmuster für Streckenfavoriten hat kein Muster.
+\\Klassifizierungsmuster für Streckenfavoriten hat kein Muster.
 
 \textbf{ANNCLASS: pattern has unknown type 'XYZ'}
-\\Klassifizierungsmuster für Streckenfavoriten konnte keinem Typ zugeordnet werden.
+\\Klassifizierungsmuster für Streckenfavoriten konnte keinem Typ zugeordnet werden.
 
 \textbf{ANNCLASS: pattern 'XYZ' is invalid.}
-\\Klassifizierungsmuster für Streckenfavoriten ist ungültig.
+\\Klassifizierungsmuster für Streckenfavoriten ist ungültig.
 
 \textbf{BSP: Error while parsing data row.}
-\\Ungültige Datenzeile.
+\\Ungültige Datenzeile.
 
 \textbf{duplicate station '...': -$>$ ignored}
 \\Duplikat einer Station. Wird ignoriert.
 
 \textbf{BSP: unparseable height ...}
-\\Nicht lesbare Sohlhöhe in einer Sohlhöhen-Datei.
+\\Nicht lesbare Sohlhöhe in einer Sohlhöhen-Datei.
 
 \textbf{BSP: unparseable uncertainty value ...}
-\\Nicht lesbare Unsicherheit in einer Sohlhöhen-Datei.
+\\Nicht lesbare Unsicherheit in einer Sohlhöhen-Datei.
 
 \textbf{BSP: unparseable data gap ...}
-\\Nicht lesbare Datenlücke in einer Sohlhöhen-Datei.
+\\Nicht lesbare Datenlücke in einer Sohlhöhen-Datei.
 
 \textbf{BSP: unparseable sounding width ...}
-\\Nicht lesbare Peilbreite in einer Sohlhöhen-Datei.
+\\Nicht lesbare Peilbreite in einer Sohlhöhen-Datei.
 
 \textbf{BSP: unparseable width ...}
-\\Nicht lesbare Breite in einer Sohlhöhen-Datei.
+\\Nicht lesbare Breite in einer Sohlhöhen-Datei.
 
 \textbf{BSP: unparseable value in data row.}
-\\Nicht lesbare Werte in einer Sohlhöhen-Datei.
+\\Nicht lesbare Werte in einer Sohlhöhen-Datei.
 
 \textbf{SYP: Unknown meta line: \#}
 \\Meta-Informationen unbekannt. Werden ignoriert.
 
 \textbf{SYP: skip invalid data line \#}
-\\Ungültige Datenzeile wurde übersprungen.
+\\Ungültige Datenzeile wurde übersprungen.
 
 \textbf{SYP: Error while parsing numbers in \#}
-\\Ungültige Zahlenformatierung.
+\\Ungültige Zahlenformatierung.
 
 \textbf{SYP: Unknown time interval string 'XYZ'}
 \\Falsches Datumformat.
@@ -838,7 +838,7 @@
 \\Unbekannte Kornfraktion.
 
 \textbf{WST: invalid number.}
-\\Ungültige Zahl.
+\\Ungültige Zahl.
 
 \textbf{WST: km $km$ ($<Zeile>$) found more than once. -$>$ ignored.}
 \\Ein Kilometer ist doppelt in einer WST-Datei enthalten.
@@ -847,16 +847,16 @@
 \\In einer Kopfzeile einer WST-Datei konnte ein Eintrag nicht als Datum erkannt werden.
 
 \textbf{HYK: zone coordinates swapped in line \#}
-\\Fließzonenkordinaten wurden in umgekehrter Reihenfolge angeben.
+\\Fließzonenkordinaten wurden in umgekehrter Reihenfolge angeben.
 
 \textbf{BHS: Skip invalid file 'XYZ'}
-\\Die Inhalte der Datei sind ungültig.
+\\Die Inhalte der Datei sind ungültig.
 
 \textbf{ISQ: Unable to store sq relation value.}
 \\S(Q) Beziehung konnte nicht gespeichert werden.
 
 \textbf{ISQ: Cannot determine sq relation without time interval.}
-\\Einer S(Q)-Beziehung ist keine zeitliche Gültigkeit zugeordnet.
+\\Einer S(Q)-Beziehung ist keine zeitliche Gültigkeit zugeordnet.
 
 \textbf{Unparseable ... in sq relation row: ...}
 \\Der gegebene Wert in der gegebenen Zeile konnte nicht als Zahl gelesen werden.
@@ -865,25 +865,25 @@
 \\Wasserstandsdifferenz hat keine Einheit.
 
 \textbf{BHE: Skip file - invalid current elevation model.}
-\\Höhenmodell ungültig.
+\\Höhenmodell ungültig.
 
 \textbf{BHE: Skip file - invalid time range.}
-\\Zeitbereich ungültig.
+\\Zeitbereich ungültig.
 
 \textbf{BHE: Skip file - invalid km range.}
-\\Kilometerbereich ungültig.
+\\Kilometerbereich ungültig.
 
 \textbf{No upper value for range found in ...}
 \textbf{No range found for measurement station '...'}
-\\Streckengültigkeit einer Messstelle in \textit{Stammdaten\_Messstellen.csv} ungültig.
+\\Streckengültigkeit einer Messstelle in \textit{Stammdaten\_Messstellen.csv} ungültig.
 
 \textbf{invalid gauge found: ...}
-\\Kein gültiger Pegel zur Messstelle gegeben.
+\\Kein gültiger Pegel zur Messstelle gegeben.
 
 \textbf{Found invalid observation time ...}
 \textbf{Observation time date invalid: ...}
 \textbf{Observation time date not parseable: ...}
-\\Kein gültiger zeitlicher Bezug zur Messstelle gegeben.
+\\Kein gültiger zeitlicher Bezug zur Messstelle gegeben.
 
 \textbf{No gauge found for measurement station '...'}
 \\Der in \textit{Stammdaten\_Messstellen.csv} gegebene Pegel existiert nicht in der Datenbank.
@@ -892,12 +892,12 @@
 Aufgrund des hohen Speicherverbrauchs des Importers wird empfohlen, der JVM
 mindestens 8 GiB Hauptspeicher zuzuordnen. Dies kann beim Starten des Java
 Prozesses mittels folgendem Parameter '-Xmx8192m' getan werden. Das
-Shellskript zum Starten des Importers setzt diesen Wert standardmäßig.
+Shellskript zum Starten des Importers setzt diesen Wert standardmäßig.
 Besonders speicherintensiv ist der Import der HYKs und der PRFs.
-Hier ist es unter Umständen empfehlenswert, diese in zwei oder drei
+Hier ist es unter Umständen empfehlenswert, diese in zwei oder drei
 Schritten zu importieren. Zuerst die sonstigen hydrologischen Daten importieren;
-anschließend einen Import-Vorgang ausschließlich für HYKs starten; anschließend
-einen Import-Vorgang für PRFs starten. Siehe Kapitel \ref{configuration} für
+anschließend einen Import-Vorgang ausschließlich für HYKs starten; anschließend
+einen Import-Vorgang für PRFs starten. Siehe Kapitel \ref{configuration} für
 weitere Informationen zum Aktivieren/Deaktivieren einzelner Dateitypen beim
 Import.
 
@@ -905,39 +905,39 @@
 \subsection{Starten des Fachdaten Importers}
 \label{start-hydr}
 Der Fachdaten Importer wird mit Hilfe eines Shellskripts von einer Konsole
-gestartet. Dazu folgenden Befehl ausführen:\\
+gestartet. Dazu folgenden Befehl ausführen:\\
 
 \begin{lstlisting}
     ./run_hydr_morph.sh pfad/zur/beispiel.gew
 \end{lstlisting}
 
-Der übergebene Pfad muss auf eine valide *.gew Datei verweisen (bekannt aus
-Desktop-FLYS). Wichtig für den Importer sind in dieser Datei die Zeilen, die mit
+Der übergebene Pfad muss auf eine valide *.gew Datei verweisen (bekannt aus
+Desktop-FLYS). Wichtig für den Importer sind in dieser Datei die Zeilen, die mit
 \textit{WSTDatei:} beginnen. In ihnen wird der Pfad zu der zentralen WST-Datei
-des jeweiligen Gewässers angegeben. Alle anderen importierten Dateien werden in
+des jeweiligen Gewässers angegeben. Alle anderen importierten Dateien werden in
 ihrer Lage im Dateisystem relativ zur Lage dieser Datei betrachtet.
-Ebenfalls wichtig ist die Zeile beginnend mit \textit{Gewässer:}
-in der der Name des Gewässers festgelegt wird.
+Ebenfalls wichtig ist die Zeile beginnend mit \textit{Gewässer:}
+in der der Name des Gewässers festgelegt wird.
 
-Zusätzlich kann die Datei eine Zeile beginnend mit \textit{uuid:}
+Zusätzlich kann die Datei eine Zeile beginnend mit \textit{uuid:}
 enthalten. Dahinter kann eine
 UUID\footnote{\url{http://de.wikipedia.org/wiki/UUID}} stehen,
 die als eindeutiger Bezeichner des Datensatzes verwendet wird
-(derzeit für die Zuordnung der Darstellung von Gewässern in der
-interaktiven Einstiegskarte zu Datensätzen in der Datenbank).
+(derzeit für die Zuordnung der Darstellung von Gewässern in der
+interaktiven Einstiegskarte zu Datensätzen in der Datenbank).
 
-Nachdem der Prompt der Konsole zurückkehrt, ist der Import abgeschlossen oder es
+Nachdem der Prompt der Konsole zurückkehrt, ist der Import abgeschlossen oder es
 ist ein Fehler aufgetreten. Weitere Informationen entnehmen Sie der Log-Datei.
 
-Um einen Gewässerdatensatz in einem Durchlauf (inkl.\ Geodaten)
+Um einen Gewässerdatensatz in einem Durchlauf (inkl.\ Geodaten)
 zu importieren, kann auch das Skript \textit{import\_river.sh} verwendet werden.
 
 Details zur Verwendung erhalten Sie auf der Kommandozeile mit
 \begin{lstlisting}
     ./import_river.sh --help
 \end{lstlisting}
-Alternativ können auch in diesem Skript einige Variablen
+Alternativ können auch in diesem Skript einige Variablen
 (\textit{DEFAULT\_*}) angepasst werden.
 Das Logging kann in diesem Fall nicht wie oben beschrieben
-über \textit{conf/log4j.properties} angepasst werden, da hier
-mehrere Log-Dateien geschrieben werden müssen.
+über \textit{conf/log4j.properties} angepasst werden, da hier
+mehrere Log-Dateien geschrieben werden müssen.
--- a/backend/doc/documentation/de/importer-manual.tex	Thu Mar 04 12:25:11 2021 +0100
+++ b/backend/doc/documentation/de/importer-manual.tex	Thu Mar 04 13:05:19 2021 +0100
@@ -5,7 +5,7 @@
 
 \usepackage{a4}
 \usepackage{times}
-\usepackage[latin1]{inputenc}
+\usepackage[utf8]{inputenc}
 \usepackage{fancyhdr}
 %\usepackage{german}
 %\usepackage[marvosym]{eurofont}
--- a/backend/doc/documentation/de/overview.tex	Thu Mar 04 12:25:11 2021 +0100
+++ b/backend/doc/documentation/de/overview.tex	Thu Mar 04 13:05:19 2021 +0100
@@ -1,9 +1,9 @@
-\section{Übersicht}
+\section{Ãœbersicht}
 
 Diese Dokumentation beschreibt die von Intevation entwickelten Werkzeuge zum
-Importieren der hydrologischen, morphologischen und geodätischen Daten der BfG.
+Importieren der hydrologischen, morphologischen und geodätischen Daten der BfG.
 Die im Folgenden beschriebenen Werkzeuge zum Importieren der Daten sind speziell auf das Verzeichnissystem der BfG ausgerichtet.
-Dabei wird angenommen, dass sich das Verzeichnis eines Gewässers auf oberster
+Dabei wird angenommen, dass sich das Verzeichnis eines Gewässers auf oberster
 Ebene in drei Unterverzeichnisse aufgliedert:
 
 \begin{itemize}
@@ -14,33 +14,33 @@
 
 Desweiteren beziehen sich die Befehle, die auf der Kommandozeile abgesetzt
 werden, auf ein SuSE-Linux-Enterprise-Server Version 11. Bitte beachten Sie
-auch, dass einige der Befehle \textit{root}-Rechte benötigen.
+auch, dass einige der Befehle \textit{root}-Rechte benötigen.
 
 \subsection{Vorbereitungen}
 
 \subsubsection{Entpacken des Datenimporters}
 
-Damit die Software performant und korrekt ausgeführt werden kann, ist es
+Damit die Software performant und korrekt ausgeführt werden kann, ist es
 erforderlich, dass sie auf dem selben System wie die Datenbank installiert
-und ausgeführt wird.
+und ausgeführt wird.
 Sollten Sie das Paket nicht auf dem
 Zielsystem selbst heruntergeladen haben, sind ggf. weitere Werkzeuge notwendig.
 Wenn Sie von einem Windows System auf das Zielsystem zugreifen
-wollen, können Sie beispielsweise folgende Werkzeuge verwenden:
+wollen, können Sie beispielsweise folgende Werkzeuge verwenden:
 
 \begin{itemize}
 \item WinSCP \\
 WinSCP ist ein Open Source Werkzeug zum Transferieren von Dateien zwischen zwei
 Systemen. Um das heruntergeladene Paket auf das Zielsystem zu transferieren,
-können Sie WinSCP benutzen. Für weitere Informationen und den Gebrauch von
+können Sie WinSCP benutzen. Für weitere Informationen und den Gebrauch von
 WinSCP lesen Sie bitte unter folgender Adresse nach:
 \href{http://winscp.net/}{http://winscp.net/}.
 
 \item Putty \\
 Putty ist ein Open Source Werkzeug, mit dem Sie sich von einem Windows System
-per SSH auf das Zielsystem verbinden können. Anschließend können Sie über die
+per SSH auf das Zielsystem verbinden können. Anschließend können Sie über die
 Kommandozeile auf dem Zielsystem die Befehle, die in diesem Dokument beschrieben
-sind, ausführen. Für weitere Informationen zu Putty und dessen Gebrauch lesen
+sind, ausführen. Für weitere Informationen zu Putty und dessen Gebrauch lesen
 Sie bitte unter folgender Adresse nach: \href{http://www.putty.org/}
 {http://www.putty.org/}.
 \end{itemize}
@@ -52,7 +52,7 @@
 \label{Systemanforderungen}
 \begin{itemize}
   \item Oracle- oder PosgreSQL-Datenbank bzw. entsprechende Client-Bibliotheken
-    inkl. Schema für FLYS
+    inkl. Schema für FLYS
   \item Java, Python, GDAL 1.11 (mit GDAL-Python-API)
 \end{itemize}
 
@@ -70,8 +70,8 @@
 
 
 \subsubsection{Vorbereiten einer Oracle-Datenbank}
-Bevor die Importer verwendet werden können, ist es notwendig, dass eine leere
-Oracle Datenbank vorhanden ist. Anschließend müssen folgende SQL-Skripte in
+Bevor die Importer verwendet werden können, ist es notwendig, dass eine leere
+Oracle Datenbank vorhanden ist. Anschließend müssen folgende SQL-Skripte in
 diese Datenbank eingespielt werden:
 
 \begin{enumerate}
@@ -84,22 +84,22 @@
 Daten.
 
 \item oracle-spatial.sql \\
-In diesem SQL Skript befindet sich das Schema zum Speichern der geodätischen
+In diesem SQL Skript befindet sich das Schema zum Speichern der geodätischen
 Daten.
 
 \item oracle-spatial\_idx.sql \\
-Mittels diesem SQL Skript werden die Indizes zum geodätischen Datenbankschema\\
-hinzugefügt.
+Mittels diesem SQL Skript werden die Indizes zum geodätischen Datenbankschema\\
+hinzugefügt.
 
 \end{enumerate}
 
 Zum Einspielen dieser Schemata setzen Sie folgende Befehle auf der Kommandozeile
 ab. Beachten Sie, dass $sqlplus$ im Pfad liegen muss, und der Linux-Nutzer
-dieses Kommando ausführen können muss. Außerdem sind $benutzername$ und $passwort$
+dieses Kommando ausführen können muss. Außerdem sind $benutzername$ und $passwort$
 entsprechend Ihres Datenbank-Zugangs anzupassen.
 
 Damit alle in den UTF8-codierten SQL-Skripten vorhandenen Zeichen (also z.B.\
-auch Umlaute) korrekt in die Datenbank eingelesen werden können, führen
+auch Umlaute) korrekt in die Datenbank eingelesen werden können, führen
 Sie folgenden Befehl aus:
 
 \begin{lstlisting}
--- a/backend/doc/documentation/de/title.tex	Thu Mar 04 12:25:11 2021 +0100
+++ b/backend/doc/documentation/de/title.tex	Thu Mar 04 13:05:19 2021 +0100
@@ -10,7 +10,7 @@
   \begin{minipage}[b]{0.5\linewidth}
     \centering
     \includegraphics[width=0.75\textwidth]{figures/intevation-logo}
-     \url{https://intevation.de}\\[2.0cm]
+    \url{https://intevation.de}\\[2.0cm]
   \end{minipage}
 \end{figure}
 
@@ -46,7 +46,7 @@
  Sascha Teichmann $<$sascha.teichmann@intevation.de$>$\\
  Tom Gottfried $<$tom.gottfried@intevation.de$>$\\
  \textbf{Intevation GmbH},\\
- Neuer Graben 17, 49074 Osnabrück, Germany\\
+ Neuer Graben 17, 49074 Osnabrück, Germany\\
  Tel: ++49 541 33 50 83 - 0 \\
  \url{https://intevation.de}
 

http://dive4elements.wald.intevation.org