svn commit: r46583 - head/de_DE.ISO8859-1/books/handbook/zfs

Bjoern Heidotting bhd at FreeBSD.org
Tue Apr 21 17:42:05 UTC 2015


Author: bhd
Date: Tue Apr 21 17:42:04 2015
New Revision: 46583
URL: https://svnweb.freebsd.org/changeset/doc/46583

Log:
  Couple of small fixes, including:
  
  - Typos
  - EOL whitespace
  - Replace space with tabs
  - Two spaces after a sentence
  - Reword sentences to improve readability
  
  Approved by:	bcr (mentor)

Modified:
  head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml

Modified: head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
==============================================================================
--- head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml	Tue Apr 21 17:17:25 2015	(r46582)
+++ head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml	Tue Apr 21 17:42:04 2015	(r46583)
@@ -57,7 +57,7 @@
 
   <para>Das <emphasis>Z-Dateisystem</emphasis>, oder kurz
     <acronym>ZFS</acronym>, ist ein fortgeschrittenes Dateisystem, das
-    entwickelt wurde, um viele der grossen Probleme in vorherigen
+    entwickelt wurde, um viele der großen Probleme in vorherigen
     Entwicklungen zu überwinden.</para>
 
   <para>Ursprünglich von &sun; entworfen, wird die weitere Entwicklung
@@ -65,7 +65,7 @@
     xlink:href="http://open-zfs.org">OpenZFS Projekt</link>
     vorangetrieben.</para>
 
-  <para><acronym>ZFS</acronym> hat drei grosse Entwurfsziele:</para>
+  <para><acronym>ZFS</acronym> hat drei große Entwurfsziele:</para>
 
   <itemizedlist>
     <listitem>
@@ -85,7 +85,7 @@
 	einem Pool zusammengefasst und der Speicherplatz wird von
 	diesem gemeinsam genutzten Pool allokiert.  Der Speicherplatz
 	steht allen Dateisystemen zur Verfügung und kann durch das
-	Hinzufügen von neuen Speichermedien vergrössert werden.</para>
+	Hinzufügen von neuen Speichermedien vergrößert werden.</para>
     </listitem>
 
     <listitem>
@@ -95,7 +95,7 @@
 	hauptspeicherbasierter Zwischenspeicher für Leseanfragen.  Auf
 	einer zweiten Stufe kann ein plattenbasierter <link
 	linkend="zfs-term-l2arc">L2ARC</link>-Lesezwischenspeicher
-	hinzugefügt werden. Zusätzlich ist auch noch ein
+	hinzugefügt werden.  Zusätzlich ist auch noch ein
 	plattenbasierter, synchroner Schreibzwischenspeicher
 	verfügbar, der sog. <link
 	linkend="zfs-term-zil">ZIL</link>.</para>
@@ -114,7 +114,7 @@
       Dateisystem ist.  Durch die Kombination von traditionell
       getrennten Rollen von Volumenmanager und Dateisystem ist
       <acronym>ZFS</acronym> mit einzigartigen Vorteilen ausgestattet.
-      Das Dateisystem besitzt jetzt Kentniss von der zugrundeliegenden
+      Das Dateisystem besitzt jetzt Kenntnis von der zugrundeliegenden
       Struktur der Speichermedien.  Traditionelle Dateisysteme konnten
       nur auf einer einzigen Platte gleichzeitig angelegt werden.
       Falls es zwei Festplatten gab, mussten auch zwei getrennte
@@ -127,20 +127,20 @@
       Fall von Software-<acronym>RAID</acronym>-Lösungen, wie die, die
       von <acronym>GEOM</acronym> bereitgestellt werden, war das
       <acronym>UFS</acronym>-Dateisystem der Ansicht, dass es auf nur
-      einem einzigen Gerät angelegt wurde.  <acronym>ZFS</acronym>'
+      einem einzigen Gerät angelegt wurde.  <acronym>ZFS</acronym>'s
       Kombination eines Volumenmanagers und eines Dateisystems löst
       dies und erlaubt das Erstellen von vielen Dateisystemen, die
       sich alle den darunterliegenden Pool aus verfügbarem Speicher
-      teilen.  Einer der grössten Vorteile von <acronym>ZFS</acronym>'
-      Kentniss des physikalischen Layouts der Platten ist, dass
+      teilen.  Einer der größten Vorteile von <acronym>ZFS</acronym>'s
+      Kenntnis des physikalischen Layouts der Platten ist, dass
       existierende Dateisysteme automatisch wachsen können, wenn
       zusätzliche Platten zum Pool hinzugefügt werden.  Dieser neue
       Speicherplatz wird dann allen Dateisystemen zur Verfügung
       gestellt.  <acronym>ZFS</acronym> besitzt ebenfalls eine Menge
       an unterschiedlichen Eigenschaften, die für jedes Dateisystem
-      angepasst werden könnnen, was viele Vorteile bringt, wenn man
+      angepasst werden können, was viele Vorteile bringt, wenn man
       unterschiedliche Dateisysteme und Datasets anlegt, anstatt ein
-      einziges, monolitisches Dateisystem zu erzeugen.</para>
+      einziges, monolithisches Dateisystem zu erzeugen.</para>
   </sect1>
 
   <sect1 xml:id="zfs-quickstart">
@@ -170,7 +170,7 @@
       <title>Pools mit einer Platte</title>
 
       <para>Um einen einfachen, nicht-redundanten Pool mit einem
-      einzigen Gerät anzulegen, geben Sie folgendes ein:</para>
+	einzigen Gerät anzulegen, geben Sie folgendes ein:</para>
 
       <screen>&prompt.root; <userinput>zpool create <replaceable>example</replaceable> <replaceable>/dev/da0</replaceable></userinput></screen>
 
@@ -208,7 +208,7 @@ drwxr-xr-x  21 root  wheel  512 Aug 29 2
 
       <para>Das <literal>example/compressed</literal>-Dataset ist nun
 	ein komprimiertes <acronym>ZFS</acronym>-Dateisystem.
-	Versuchen Sie, ein paar grosse Dateien auf
+	Versuchen Sie, ein paar große Dateien auf
 	<filename>/example/compressed</filename> zu kopieren.</para>
 
       <para>Deaktivieren lässt sich die Komprimierung durch:</para>
@@ -217,7 +217,7 @@ drwxr-xr-x  21 root  wheel  512 Aug 29 2
 
       <para>Um ein Dateisystem abzuhängen, verwenden Sie
 	<command>zfs umount</command> und überprüfen Sie dies
-	anschliessend mit <command>df</command>:</para>
+	anschließend mit <command>df</command>:</para>
 
       <screen>&prompt.root; <userinput>zfs umount example/compressed</userinput>
 &prompt.root; <userinput>df</userinput>
@@ -251,8 +251,8 @@ example on /example (zfs, local)
 example/compressed on /example/compressed (zfs, local)</screen>
 
       <para>Nach der Erstellung können <acronym>ZFS</acronym>-Datasets
-	wie jedes undere Dateisystem verwendet werden.  Jedoch sind
-	jede Menge undere Besonderheiten verfügbar, die individuell
+	wie jedes andere Dateisystem verwendet werden.  Jedoch sind
+	jede Menge andere Besonderheiten verfügbar, die individuell
 	auf Dataset-Basis eingestellt sein können.  Im Beispiel unten
 	wird ein neues Dateisystem namens <literal>data</literal>
 	angelegt.  Wichtige Dateien werden dort abgespeichert, deshalb
@@ -284,8 +284,8 @@ example/data        17547008       0 175
 	Partitionen und erlaubt es mehreren Dateisystemen den gleichen
 	Pool zu belegen.</para>
 
-      <para>Um das Dateisystem zu zerstören und anschliessend den
-	Pool, da dieser nicht mehr benötigt wird, geben Sie
+      <para>Um das Dateisystem und anschließend den Pool zu
+	zerstören, wenn dieser nicht mehr benötigt wird, geben Sie
 	ein:</para>
 
       <screen>&prompt.root; <userinput>zfs destroy example/compressed</userinput>
@@ -314,7 +314,7 @@ example/data        17547008       0 175
 	<para>&sun; empfiehlt, dass die Anzahl der Geräte in einer
 	  <acronym>RAID</acronym>-Z Konfiguration zwischen drei und
 	  neun beträgt.  Für Umgebungen, die einen einzelnen Pool
-	  enötigen, der aus 10 oder mehr Platten besteht, sollten Sie
+	  benötigen, der aus 10 oder mehr Platten besteht, sollten Sie
 	  in Erwägung ziehen, diesen in kleinere
 	  <acronym>RAID-Z</acronym>-Gruppen aufzuteilen.  Falls nur
 	  zwei Platten verfügbar sind und Redundanz benötigt wird,
@@ -349,7 +349,7 @@ example/data        17547008       0 175
       <para>Daten von Anwendern werden nun auf dem frisch erstellten
 	<filename>/storage/home</filename> abgelegt.  Überprüfen Sie
 	dies durch das Anlegen eines neuen Benutzers und das
-	anschliessende Anmelden als dieser Benutzer.</para>
+	anschließende Anmelden als dieser Benutzer.</para>
 
       <para>Versuchen Sie, einen Dateisystemschnappschuss anzulegen,
 	den Sie später wieder zurückrollen können:</para>
@@ -377,11 +377,11 @@ example/data        17547008       0 175
 
       <screen>&prompt.root; <userinput>ls /storage/home/.zfs/snapshot</userinput></screen>
 
-      <para>Es ist möglich, ein Skript zu schreiben, um regelmässig
+      <para>Es ist möglich, ein Skript zu schreiben, um regelmäßig
 	Schnappschüsse von Benutzerdaten anzufertigen.  Allerdings
-	verbrauchen Schnappschüsse über lange Zeit eine grosse Menge
+	verbrauchen Schnappschüsse über lange Zeit eine große Menge
 	an Speicherplatz.  Der zuvor angelegte Schnappschuss kann
-	durch folgendes Kommundo wieder entfernt werden:</para>
+	durch folgendes Kommando wieder entfernt werden:</para>
 
       <screen>&prompt.root; <userinput>zfs destroy storage/home at 08-30-08</userinput></screen>
 
@@ -414,8 +414,8 @@ storage/home  26320512       0 26320512 
 	abgeschlossen.  Tägliche Informationen über den Status der
 	erstellten Dateisysteme können als Teil des nächtlichen
 	&man.periodic.8;-Berichts generiert werden.  Fügen Sie dazu
-	die folgende Zeile in die Datei
-	<filename>/etc/periodic.conf</filename> ein:</para>
+	die folgende Zeile in <filename>/etc/periodic.conf</filename>
+	ein:</para>
 
       <programlisting>daily_status_zfs_enable="YES"</programlisting>
     </sect2>
@@ -424,7 +424,7 @@ storage/home  26320512       0 26320512 
       <title><acronym>RAID-Z</acronym> wiederherstellen</title>
 
       <para>Jedes Software-<acronym>RAID</acronym> besitzt eine
-	Methode, um den Zustund (<literal>state</literal>) zu
+	Methode, um den Zustand (<literal>state</literal>) zu
 	überprüfen.  Der Status von <acronym>RAID-Z</acronym> Geräten
 	wird mit diesem Befehl angezeigt:</para>
 
@@ -437,8 +437,8 @@ storage/home  26320512       0 26320512 
       <screen>all pools are healthy</screen>
 
       <para>Wenn es ein Problem gibt, womöglich ist eine Platte
-	im Zustund <link linkend="zfs-term-offline">Offline</link>,
-	dann wird der Poolzustund ähnlich wie dieser aussehen:</para>
+	im Zustand <link linkend="zfs-term-offline">Offline</link>,
+	dann wird der Poolzustand ähnlich wie dieser aussehen:</para>
 
       <screen>  pool: storage
  state: DEGRADED
@@ -520,12 +520,12 @@ errors: No known data errors</screen>
       <screen>&prompt.root; <userinput>zpool scrub storage</userinput></screen>
 
       <para>Die Laufzeit einer Überprüfung hängt ab von der Menge an
-	Daten, die gespeichert sind.  Grössere Mengen an Daten
+	Daten, die gespeichert sind.  Größere Mengen an Daten
 	benötigen proportional mehr Zeit zum überprüfen.  Diese
 	Überprüfungen sind sehr <acronym>I/O</acronym>-intensiv und
 	es kann auch nur eine Überprüfung zur gleichen Zeit
 	durchgeführt werden.  Nachdem eine Prüfung beendet ist, kann
-	der Status mit dem Unterkommundo <command>status</command>
+	der Status mit dem Unterkommando <command>status</command>
 	angezeigt werden:</para>
 
       <screen>&prompt.root; <userinput>zpool status storage</userinput>
@@ -559,7 +559,7 @@ errors: No known data errors</screen>
 
     <para>Administration von <acronym>ZFS</acronym> ist unterteilt
       zwischen zwei Hauptkommandos.  Das
-      <command>zpool</command>-Wekzeug steuert die Operationen des
+      <command>zpool</command>-Werkzeug steuert die Operationen des
       Pools und kümmert sich um das Hinzufügen, entfernen, ersetzen
       und verwalten von Platten.  Mit dem <link
       linkend="zfs-zfs"><command>zfs</command></link>-Befehl können
@@ -585,7 +585,7 @@ errors: No known data errors</screen>
 	gestatten, sowie stripes, die zu Spiegeln umgewandelt werden
 	können, indem man zusätzliche Platten zum vdev anhängt.
 	Obwohl weitere vdevs eingefügt werden können, um einen Pool zu
-	vergrössern, kann das Layout des Pools nach dem Anlegen nicht
+	vergrößern, kann das Layout des Pools nach dem Anlegen nicht
 	mehr verändert werden.  Stattdessen müssen die Daten
 	gesichert, der Pool zerstört und danach neu erstellt
 	werden.</para>
@@ -641,11 +641,11 @@ errors: No known data errors</screen>
 	Partition anstatt einer ganzen Platte verwendet wird.  Durch
 	den Einsatz von Partitionen kann der Administrator die Platten
 	<emphasis>unter provisionieren</emphasis>, indem weniger als
-	die volle Kapazität Verwendung findet.  Wenn in Zukunft ein
-	Ersatzfestplatte mit der gleichen Grösse als die
+	die volle Kapazität Verwendung findet.  Wenn in Zukunft eine
+	Ersatzfestplatte mit der gleichen Größe als die
 	Originalplatte eine kleinere Kapazität aufweist, passt die
-	kleinere Partition immer noch passen und die Ersatzplatte
-	immer noch verwendet werden.</para>
+	kleinere Partition immer noch und die Ersatzplatte kann immer
+	noch verwendet werden.</para>
 
       <para>Erstellen eines <link
 	linkend="zfs-term-vdev-raidz">RAID-Z2</link>-Pools mit
@@ -708,10 +708,10 @@ errors: No known data errors</screen>
 	<command>zpool attach</command> können auch zusätzliche
 	Platten zu einer Spiegelgruppe eingefügt werden, was die
 	Redundanz und Lesegeschwindigkeit steigert.  Wenn die Platten,
-	aus denen der Pool besteht, aus partitioniert sind,
-	replizieren Sie das Layout der ersten Platte auf die Zweite
-	und verwenden dann <command>gpart backup</command>, gefolgt
-	von <command>gpart restore</command>, um diesen Vorgang
+	aus denen der Pool besteht, partitioniert sind,
+	replizieren Sie das Layout der ersten Platte auf die Zweite.
+	Verwenden Sie dazu <command>gpart backup</command> und
+	<command>gpart restore</command>, um diesen Vorgang
 	einfacher zu gestalten.</para>
 
       <para>Umwandeln eines (stripe) vdevs namens
@@ -780,7 +780,7 @@ errors: No known data errors</screen>
 	Zusätzliche vdevs bieten höhere Geschwindigkeit, indem
 	Schreibvorgänge über die vdevs verteilt werden.  Jedes vdev
 	ist dafür verantwortlich, seine eigene Redundanz
-	sicherzustellen.  Es ist möglich, aber nicht empfohlen,
+	sicherzustellen.  Es ist möglich, aber nicht empfehlenswert,
 	vdev-Arten zu mischen, wie zum Beispiel
 	<literal>mirror</literal> und <literal>RAID-Z</literal>.
 	Durch das Einfügen eines nicht-redundanten vdev zu einem
@@ -920,21 +920,21 @@ errors: No known data errors</screen>
 
       <para>Wenn ein Fehler erkannt wurde, werden die Lese-, Schreib-
 	oder Prüfsummenzähler erhöht.  Die Fehlermeldung kann
-	beseitigt und der Zähler zurückgesetzt werden mit
+	beseitigt und der Zähler mit
 	<command>zpool clear
-	  <replaceable>mypool</replaceable></command>.  Den
-	Fehlerzustand zurückzusetzen kann wichtig sein, wenn
-	automatisierte Skripte ablaufen, die den Administrator
+	  <replaceable>mypool</replaceable></command> zurückgesetzt
+	werden.  Den Fehlerzustand zurückzusetzen kann wichtig sein,
+	wenn automatisierte Skripte ablaufen, die den Administrator
 	informieren, sobald der Pool Fehler anzeigt.  Weitere Fehler
 	werden nicht gemeldet, wenn der alte Fehlerbericht nicht
 	entfernt wurde.</para>
     </sect2>
 
     <sect2 xml:id="zfs-zpool-replace">
-      <title>Ein defektes Gerät entfernen</title>
+      <title>Ein funktionierendes Gerät ersetzen</title>
 
       <para>Es gibt eine Reihe von Situationen, in denen es nötig
-	wird, eine defekte Platte mit einer anderen auszutauschen.
+	ist, eine Platte mit einer anderen auszutauschen.
 	Wenn eine funktionierende Platte ersetzt wird, hält der
 	Prozess die alte Platte während des Ersetzungsvorganges noch
 	aktiv.  Der Pool wird nie den Zustand <link
@@ -944,9 +944,9 @@ errors: No known data errors</screen>
 	<command>zpool replace</command> auf die Neue übertragen.
 	Nachdem die Operation abgeschlossen ist, wird die alte Platte
 	vom vdev getrennt.  Falls die neue Platte grösser ist als die
-	alte Platte , ist es möglich den Pool zu vergrössern, um den
+	alte Platte , ist es möglich den Pool zu vergrößern, um den
 	neuen Platz zu nutzen.  Lesen Sie dazu <link
-	  linkend="zfs-zpool-online">Einen Pool vergrössern</link>.</para>
+	  linkend="zfs-zpool-online">Einen Pool vergrößern</link>.</para>
 
       <para>Ersetzen eines funktionierenden Geräts in einem
 	Pool:</para>
@@ -1031,10 +1031,10 @@ errors: No known data errors</screen>
 
       <para>Falls das vdev keine Redundanz besitzt oder wenn mehrere
 	Geräte ausgefallen sind und es nicht genug Redundanz gibt, um
-	zu kompensieren, geht der Pool in den Zustand <link
-	linkend="zfs-term-faulted">faulted</link> über.  Wenn eine
-	ausreichende Anzahl von Geräten nicht wieder an den Pool
-	angeschlossen werden können, fällt der Pool aus und die Daten
+	dies zu kompensieren, geht der Pool in den Zustand <link
+	linkend="zfs-term-faulted">faulted</link> über.  Wenn keine
+	ausreichende Anzahl von Geräten wieder an den Pool
+	angeschlossen wird, fällt der Pool aus und die Daten
 	müssen von Sicherungen wieder eingespielt werden.</para>
 
       <para>Wenn eine defekte Platte ausgewechselt wird, wird der Name
@@ -1102,12 +1102,12 @@ errors: No known data errors</screen>
     <sect2 xml:id="zfs-zpool-scrub">
       <title>Einen Pool überprüfen</title>
 
-      <para>Es wird empfohlen, dass Pools regelmässig geprüft (<link
+      <para>Es wird empfohlen, dass Pools regelmäßig geprüft (<link
 	  linkend="zfs-term-scrub">scrubbed</link>) werden,
 	idealerweise mindestens einmal pro Monat.  Der
 	<command>scrub</command>-Vorgang ist beansprucht die Platte
 	sehr und reduziert die Geschwindigkeit während er läuft.
-	Vermeiden Sie Zeiten, in denen grosser Bedarf besteht, wenn
+	Vermeiden Sie Zeiten, in denen großer Bedarf besteht, wenn
 	Sie <command>scrub</command> starten oder benutzen Sie <link
 	  linkend="zfs-advanced-tuning-scrub_delay"><varname>vfs.zfs.scrub_delay</varname></link>,
 	um die relative Priorität vom <command>scrub</command>
@@ -1158,7 +1158,7 @@ errors: No known data errors</screen>
 	welche die Daten überprüfen und reparieren.  Diese Kommandos
 	benötigen einige Zeit und in gravierenden Fällen muss ein
 	Administrator manuelle Entscheidungen treffen, welche
-	Reparaturoperation vorgenommen werden soll.  Wenn 
+	Reparaturoperation vorgenommen werden soll.  Wenn
 	<acronym>ZFS</acronym> einen defekten Datenblock mit einer
 	Prüfsumme erkennt, die nicht übereinstimmt, versucht es die
 	Daten von der gespiegelten Platte zu lesen.  Wenn diese Platte
@@ -1209,12 +1209,12 @@ SHA1 (/healer) = 2753eff56d77d9a536ece66
 	Daten an den Anfang einer Platte des Spiegels simuliert.  Um
 	<acronym>ZFS</acronym> daran zu hindern, die Daten so schnell
 	zu reparieren, wie es diese entdeckt, wird der Pool vor der
-	Veränderung exportiert und anschliessend wieder
+	Veränderung exportiert und anschließend wieder
 	importiert.</para>
 
       <warning>
 	<para>Dies ist eine gefährliche Operation, die wichtige Daten
-	  zerstören kann. Es wird hier nur zu Demonstrationszwecken
+	  zerstören kann.  Es wird hier nur zu Demonstrationszwecken
 	  gezeigt und sollte nicht während des normalen Betriebs des
 	  Pools versucht werden.  Dieses vorsätzliche
 	  Korrumpierungsbeispiel sollte auf gar keinen Fall auf einer
@@ -1341,10 +1341,10 @@ errors: No known data errors</screen>
 
       <para>Nach der scrub-Operation und der anschliessenden
 	Synchronisation der Daten von <filename>ada0</filename> nach
-	<filename>ada1</filename>, kann die Fehlermeldun vom
-	Poolstatus <link linkend="zfs-zpool-clear">bereinigt</link>
-	werden durch die Eingabe von
-	<command>zpool clear</command>.</para>
+	<filename>ada1</filename>, kann die Fehlermeldung vom
+	Poolstatus durch die Eingabe von
+	<command>zpool clear</command>
+	<link linkend="zfs-zpool-clear">bereinigt</link> werden.</para>
 
       <screen>&prompt.root; <userinput>zpool clear <replaceable>healer</replaceable></userinput>
 &prompt.root; <userinput>zpool status <replaceable>healer</replaceable></userinput>
@@ -1361,7 +1361,7 @@ config:
 
 errors: No known data errors</screen>
 
-      <para>Der Pool ist jetzt wieder in einen voll funktionsfähigen
+      <para>Der Pool ist jetzt wieder in einem voll funktionsfähigen
 	Zustand versetzt worden und alle Fehler wurden
 	beseitigt.</para>
     </sect2>
@@ -1369,20 +1369,20 @@ errors: No known data errors</screen>
     <sect2 xml:id="zfs-zpool-online">
       <title>Einen Pool vergrössern</title>
 
-      <para>Die verwendbare Grösse eines redundant ausgelegten Pools
+      <para>Die verwendbare Größe eines redundant ausgelegten Pools
 	ist durch die Kapazität des kleinsten Geräts in jedem vdev
-	begrenzt.  Das kleinste Gerät kann durch ein grösseres Gerät
+	begrenzt.  Das kleinste Gerät kann durch ein größeres Gerät
 	ersetzt werden.  Nachdem eine <link
 	  linkend="zfs-zpool-replace">replace</link> oder <link
 	  linkend="zfs-term-resilver">resilver</link>-Operation
 	abgeschlossen wurde, kann der Pool anwachsen, um die Kapazität
 	des neuen Geräts zu nutzen.  Nehmen wir als Beispiel einen
-	Spiegel mit einer 1 TB und einer 2 TB Platte. Der
+	Spiegel mit einer 1 TB und einer 2 TB Platte.  Der
 	verwendbare Plattenplatz beträgt 1 TB.  Wenn die
 	1 TB Platte mit einer anderen 2 TB Platte ersetzt
 	wird, kopiert der resilver-Prozess die existierenden Daten auf
 	die neue Platte.  Da beide Geräte nun 2 TB Kapazität
-	besitzen, kann auch der verfügbare Plattenplatz auf die Grösse
+	besitzen, kann auch der verfügbare Plattenplatz auf die Größe
 	von 2 TB anwachsen.</para>
 
       <para>Die Erweiterung wird durch das Kommando
@@ -1416,8 +1416,8 @@ errors: No known data errors</screen>
 
       <para>Beim Importieren eines Pool werden auch automatisch alle
 	Datasets eingehängt.  Dies ist möglicherweise nicht das
-	bevorzugte Verhalten und wird durch 
-	<command>zpool import -N</command> verhindert. Durch
+	bevorzugte Verhalten und wird durch
+	<command>zpool import -N</command> verhindert.  Durch
 	<command>zpool import -o</command> temporäre Eigenschaften nur
 	für diesen Import gesetzt.  Mit dem Befehl
 	<command>zpool import altroot=</command> ist es möglich, einen
@@ -1425,10 +1425,9 @@ errors: No known data errors</screen>
 	des Dateisystems einzubinden.  Wenn der Pool zuletzt auf einem
 	anderen System verwendet und nicht korrekt exportiert
 	wurde, muss unter Umständen ein Import erzwungen werden durch
-	<command>zpool import -f</command>. Alle Pools lassen sich
-	durch <command>zpool import -a</command> importieren, die
-	nicht durch ein anderes System momemtan verwendet
-	werden.</para>
+	<command>zpool import -f</command>.  Alle Pools, die momentan
+	nicht durch ein anderes System verwendet werden, lassen sich
+	mit <command>zpool import -a</command> importieren.</para>
 
       <para>Alle zum Import verfügbaren Pools auflisten:</para>
 
@@ -1455,7 +1454,7 @@ mypool               110K  47.0G    31K 
     <sect2 xml:id="zfs-zpool-upgrade">
       <title>Einen Pool aktualisieren</title>
 
-      <para>Nachdem &os; aktualisiert wurde oder wenn der Poo von
+      <para>Nachdem &os; aktualisiert wurde oder wenn der Pool von
 	einem anderen System, das eine ältere Version von
 	<acronym>ZFS</acronym> einsetzt, lässt sich der Pool manuell
 	auf den aktuellen Stand von <acronym>ZFS</acronym> bringen, um
@@ -1574,7 +1573,7 @@ Enabled the following features on 'mypoo
       <warning>
 	<para>Der Bootcode muss auf Systemen, die von dem Pool
 	  starten, aktualisiert werden, um diese neue Version zu
-	  unterstützen. Verwenden Sie
+	  unterstützen.  Verwenden Sie
 	 <command>gpart bootcode</command> auf der Partition, die den
 	  Bootcode enthält.  Lesen Sie für weitere Informationen
 	  &man.gpart.8;.</para>
@@ -1585,11 +1584,11 @@ Enabled the following features on 'mypoo
       <title>Aufgezeichnete Historie des Pools anzeigen</title>
 
       <para>Befehle, die den Pool in irgendeiner Form verändern,
-	werden aufgezeichnet. Diese Befehle beinhalten das Erstellen
+	werden aufgezeichnet.  Diese Befehle beinhalten das Erstellen
 	von Datasets, verändern von Eigenschaften oder das Ersetzen
 	einer Platte.  Diese Historie ist nützlich um
 	nachzuvollziehen, wie ein Pool aufgebaut ist und welcher
-	Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die
+	Benutzer eine bestimmte Aktion wann und wie getätigt hat.  Die
 	aufgezeichnete Historie wird nicht in einer Logdatei
 	festgehalten, sondern ist Teil des Pools selbst.  Das Kommando
 	zum darstellen dieser Historie lautet passenderweise
@@ -1605,17 +1604,17 @@ History for 'tank':
       <para>Die Ausgabe zeigt <command>zpool</command> und
 	<command>zfs</command>-Befehle, die ausgeführt wurden zusammen
 	mit einem Zeitstempel.  Nur Befehle, die den Pool verändern
-	werden aufgezeichnet. Befehle wie 
-	<command>zfs list</command> sind dabei nicht enthalten. Wenn
+	werden aufgezeichnet.  Befehle wie
+	<command>zfs list</command> sind dabei nicht enthalten.  Wenn
 	kein Name angegeben wird, erscheint die gesamte Historie aller
 	Pools.</para>
 
       <para>Der Befehl <command>zpool history</command> kann sogar
 	noch mehr Informationen ausgeben, wenn die Optionen
 	<option>-i</option> oder <option>-l</option> angegeben
-	werden. Durch <option>-i</option> zeigt <acronym>ZFS</acronym>
-	vom Benutzer eingegebene, als auch interne Ereignisse
-	an.</para>
+	werden.  Durch <option>-i</option> zeigt
+	<acronym>ZFS</acronym> vom Benutzer eingegebene, als auch
+	interne Ereignisse an.</para>
 
       <screen>&prompt.root; <userinput>zpool history -i</userinput>
 History for 'tank':
@@ -1629,7 +1628,7 @@ History for 'tank':
 
       <para>Weitere Details lassen sich durch die Angabe von
 	<option>-l</option> entlocken.  Historische Einträge werden in
-	einem langen Format ausgegeben, einschliesslich Informationen
+	einem langen Format ausgegeben, einschließlich Informationen
 	wie der Name des Benutzers, welcher das Kommando eingegeben
 	hat und der Hostname, auf dem die Änderung erfolgte.</para>
 
@@ -1642,7 +1641,7 @@ History for 'tank':
 
       <para>Die Ausgabe zeigt, dass der Benutzer <systemitem
 	class="username">root</systemitem> den gespiegelten Pool mit
-	den beiden Platten  
+	den beiden Platten
 	<filename>/dev/ada0</filename> und
 	<filename>/dev/ada1</filename> angelegt hat.  Der Hostname
 	<systemitem class="systemname">myzfsbox</systemitem> wird
@@ -1659,7 +1658,7 @@ History for 'tank':
 	eines Pools auszugeben.  Die Pool Historie liefert wertvolle
 	Informationen, wenn Aktionen nachverfolgt werden müssen oder
 	zur Fehlerbeseitigung mehr Informationen gebraucht
-	werden.</para> 
+	werden.</para>
     </sect2>
 
     <sect2 xml:id="zfs-zpool-iostat">
@@ -1670,7 +1669,7 @@ History for 'tank':
 	zeigt die Menge von freiem und belegtem Speicherplatz auf dem
 	Pool an, wieviele Lese- und Schreiboperationen pro Sekunde
 	durchgeführt werden und die aktuell verwendete
-	<acronym>I/O</acronym>-Bandbreite.  Standardmässig werden alle
+	<acronym>I/O</acronym>-Bandbreite.  Standardmäßig werden alle
 	Pools in einem System überwacht und angezeigt.  Ein Poolname
 	kann angegeben werden, um die Anzeige auf diesen Pool zu
 	beschränken.  Ein einfaches Beispiel:</para>
@@ -1684,7 +1683,7 @@ data         288G  1.53T      2     11  
       <para>Um kontinuierlich die <acronym>I/O</acronym>-Aktivität zu
 	überprüfen, kann eine Zahl als letzter Parameter angegeben
 	werden, die ein Intervall in Sekunden angibt, die zwischen den
-	Aktulisierungen vergeben soll.  Die nächste Zeile mit
+	Aktualisierungen vergehen soll.  Die nächste Zeile mit
 	Statistikinformationen wird dann nach jedem Intervall
 	ausgegeben.  Drücken Sie
 	<keycombo action="simul">
@@ -1748,29 +1747,29 @@ data                      288G  1.53T   
 
       <para>Anders als in traditionellen Festplatten- und
 	Volumenmanagern wird der Plattenplatz in
-	<acronym>ZFS</acronym> <emphasis>not</emphasis>
+	<acronym>ZFS</acronym> <emphasis>nicht</emphasis>
 	vorher allokiert.  Bei traditionellen Dateisystemen gibt es,
 	nachdem der Plattenplatz partitioniert und
 	zugeteilt wurde, keine Möglichkeit, ein zusätzliches
 	Dateisystem hinzuzufügen, ohne eine neue Platte
-	anzuschliessen.  Mit
+	anzuschließen.  Mit
 	<acronym>ZFS</acronym> lassen sich neue Dateisysteme zu jeder
 	Zeit anlegen.  Jedes <link
 	  linkend="zfs-term-dataset"><emphasis>Dataset</emphasis></link>
 	besitzt Eigenschaften wie Komprimierung, Deduplizierung,
 	Zwischenspeicher (caching), Quotas, genauso wie andere
 	nützliche Einstellungen wie Schreibschutz, Unterscheidung
-	zwischen Gross- und Kleinschreibung, Netzwerkfreigaben und
+	zwischen Groß- und Kleinschreibung, Netzwerkfreigaben und
 	einen Einhängepunkt.  Datasets können ineinander verschachtelt
 	werden und Kind-Datasets erben die Eigenschaften ihrer Eltern.
-	Jedes Dataset kann als eine Einheit verwaltet, 
+	Jedes Dataset kann als eine Einheit verwaltet,
 	<link linkend="zfs-zfs-allow">delegiert</link>,
 	<link linkend="zfs-zfs-send">repliziert</link>,
 	<link linkend="zfs-zfs-snapshot">mit Schnappschüssen
 	versehen</link>, <link linkend="zfs-zfs-jail">in Jails
 	gesteckt</link> und zerstört werden.  Es gibt viele Vorteile,
 	ein separates Dataset für jede Art von Dateien anzulegen.  Der
-	einzige Nachteil einer grossen Menge an Datasets ist, dass
+	einzige Nachteil einer großen Menge an Datasets ist, dass
 	manche Befehle wie <command>zfs list</command> langsamer sind
 	und dass das Einhängen von hunderten oder hunderttausenden von
 	Datasets de &os;-Bootvorgang verzögert.</para>
@@ -1887,7 +1886,7 @@ mypool/var/tmp        152K  93.2G   152K
 
       <para>Ein Volume kann mit einem beliebigen Dateisystem
 	formatiert werden oder auch ohne ein Dateisystem als reiner
-	Datenspeicher zu dienen.  Für den Benutzer erscheint ein
+	Datenspeicher fungieren.  Für den Benutzer erscheint ein
 	Volume als eine gewöhnliche Platte.  Indem gewöhnliche
 	Dateisysteme auf diesen <emphasis>zvols</emphasis> angelegt
 	werden, ist es möglich, diese mit Eigenschaften auszustatten,
@@ -1928,7 +1927,7 @@ Filesystem           Size Used Avail Cap
 	neuen Elternteil geerbt wird).  Dieses Verhalten kann durch
 	die Option <option>-u</option> verhindert werden.</para>
 
-      <para>Ein Dataset umbenennen und unter einem anderes
+      <para>Ein Dataset umbenennen und unter einem anderen
 	Elterndataset verschieben:</para>
 
       <screen>&prompt.root; <userinput>zfs list</userinput>
@@ -1992,11 +1991,10 @@ mypool/var/newname at new_snapshot_name    
 	  <replaceable>property</replaceable>=<replaceable>value</replaceable>
 	  <replaceable>dataset</replaceable></command> fest.  Die
 	meisten Eigenschaften haben eine begrenzte Menge von gültigen
-	Werten. <command>zfs get</command> stellt diese dar und zeigt
-	jede mögliche Eigenschaft und gültige Werte an. Die meisten
-	Eigenschaften können wieder auf ihren Ausgangswert
-	zurückgesetzt werden über
-	<command>zfs inherit</command>.</para>
+	Werten.  <command>zfs get</command> stellt diese dar und zeigt
+	jede mögliche Eigenschaft und gültige Werte an.  Die meisten
+	Eigenschaften können über <command>zfs inherit</command>
+	wieder auf ihren Ausgangswert zurückgesetzt werden.</para>
 
       <para>Benutzerdefinierte Eigenschaften lassen sich ebenfalls
 	setzen.  Diese werden Teil der Konfiguration des Datasets und
@@ -2038,11 +2036,11 @@ tank    custom:costcenter  -            
 	<acronym>COW</acronym>), können Schnappschüsse schnell
 	erstellt werden durch das Aufheben der älteren Version der
 	Daten auf der Platte.  Falls kein Snapshot existiert, wird der
-	Speicherplatz wieder für zukünfitge Verwendung freigegeben
+	Speicherplatz wieder für zukünftige Verwendung freigegeben
 	wenn Daten geschrieben oder gelöscht werden.  Schnappschüsse
 	sparen Speicherplatz, indem diese nur die Unterschiede
 	zwischen dem momentanen Dataset und der vorherigen Version
-	aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets
+	aufzeichnen.  Schnappschüsse sind nur auf ganzen Datasets
 	erlaubt, nicht auf individuellen Dateien oder Verzeichnissen.
 	Wenn ein Schnappschuss eines Datasets erstellt wird, wird
 	alles was darin enthalten ist, dupliziert.  Das beinhaltet
@@ -2057,14 +2055,14 @@ tank    custom:costcenter  -            
 	eine Anwendung Dateien auf mehreren Datasets ablegt, die
 	miteinander in Verbindung stehen oder voneinander abhängig
 	sind.  Ohne Schnappschüsse würde ein Backup Kopien dieser
-	Dateien zu unterschiedlichen Zeitpunkten enthalten.</para> 
+	Dateien zu unterschiedlichen Zeitpunkten enthalten.</para>
 
       <para>Schnappschüsse in <acronym>ZFS</acronym> bieten eine
 	Vielzahl von Eigenschaften, die selbst in anderen
 	Dateisystemen mit Schnappschussfunktion nicht vorhanden sind.
 	Ein typisches Beispiel zur Verwendung von Schnappschüssen ist,
 	den momentanen Stand des Dateisystems zu sichern,
-	wenn eine riskante Aktion wie das Installieren von Softwre
+	wenn eine riskante Aktion wie das Installieren von Software
 	oder eine Systemaktualisierung durchgeführt wird.  Wenn diese
 	Aktion fehlschlägt, so kann der Schnappschuss zurückgerollt
 	werden und das System befindet sich wieder in dem gleichen
@@ -2073,11 +2071,11 @@ tank    custom:costcenter  -            
 	Schnappschuss gelöscht werden, um Speicherplatz frei zu geben.
 	Ohne Schnappschüsse, wird durch ein fehlgeschlagenes Update
 	eine Wiederherstellung der Sicherung fällig, was oft mühsam
-	und zeitaufwändig ist, ausserdem ist währenddessen das System
+	und zeitaufwändig ist, außerdem ist währenddessen das System
 	nicht verwendbar.  Schnappschüsse lassen sich schnell
 	und mit wenig bis gar keiner Ausfallzeit zurückrollen, selbst
 	wenn das System im normalen Betrieb läuft.  Die Zeitersparnis
-	ist enorm, wenn mehrere Terabyte grosse Speichersysteme
+	ist enorm, wenn mehrere Terabyte große Speichersysteme
 	eingesetzt werden und viel Zeit für das Kopieren der Daten vom
 	Sicherungssystem benötigt wird.  Schnappschüsse sind jedoch
 	keine Ersatz für eine Vollsicherung des Pools, können jedoch
@@ -2161,12 +2159,12 @@ mypool/usr/home at my_recursive_snapshot   
 	  Schnappschüsse in <link linkend="zfs-term-cow">COW</link>
 	  Manier funktionieren.  Sie zeichnen nur die Änderungen
 	  (<emphasis>delta</emphasis>) auf, die währenddessen
-	  enstanden sind und nicht noch einmal den gesamten Inhalt des
-	  Dateisystems.  Das bedeutet, dass Schnappschüsse nur wenig
-	  Speicherplatz benötigen, wenn nur kleine Änderungen
+	  entstanden sind und nicht noch einmal den gesamten Inhalt
+	  des Dateisystems.  Das bedeutet, dass Schnappschüsse nur
+	  wenig Speicherplatz benötigen, wenn nur kleine Änderungen
 	  vorgenommen werden.  Der Speicherverbrauch kann sogar noch
 	  deutlicher gemacht werden, wenn eine Datei auf das Dataset
-	  kopiert wird und anschliessend ein zweiter Schnappschuss
+	  kopiert wird und anschließend ein zweiter Schnappschuss
 	  angelegt wird:</para>
 
 	<screen>&prompt.root; <userinput>cp <replaceable>/etc/passwd</replaceable> <replaceable>/var/tmp</replaceable></userinput>
@@ -2180,7 +2178,7 @@ mypool/var/tmp at after_cp                 
 	<para>Der zweite Schnappschuss enthält nur die Änderungen am
 	  Dataset, die nach der Kopieraktion gemacht wurden.  Dies
 	  bedeutet enorme Einsparungen von Speicherplatz.  Beachten
-	  Sie, dass sich die Grösse des Schnappschusses
+	  Sie, dass sich die Größe des Schnappschusses
 	  <replaceable>mypool/var/tmp at my_recursive_snapshot</replaceable>
 	  in der Spalte <literal>USED</literal> ebenfalls
 	  geändert hat, um die Änderungen von sich selbst und dem
@@ -2250,7 +2248,7 @@ M       /var/tmp/
 
 	<para>Vergleicht man die Ausgabe mit der Tabelle, wird klar,
 	  dass <filename><replaceable>passwd</replaceable></filename>
-	  hinzugefügt wurde, nachdem der Schnappschuss 
+	  hinzugefügt wurde, nachdem der Schnappschuss
 	  <literal><replaceable>mypool/var/tmp at my_recursive_snapshot</replaceable></literal>
 	  erstellt wurde.  Das resultierte ebenfalls in einer Änderung
 	  am darüberliegenden Verzeichnis, das unter
@@ -2278,10 +2276,11 @@ M       /var/tmp/
 
 	<para>Ein Administrator, der für die Sicherung zuständig ist,
 	  kann zwei Schnappschüsse miteinander vergleichen, die vom
-	  sendenen Host empfangen wurden, um festzustellen, welche
-	  Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu den
-	  Abschnitt <link linkend="zfs-zfs-send">Replication</link>
-	  um weitere Informationen zu erhalten.</para>
+	  sendenden Host empfangen wurden, um festzustellen, welche
+	  Änderungen am Dataset vorgenommen wurden.  Lesen Sie dazu
+	  den Abschnitt <link
+	  linkend="zfs-zfs-send">Replication</link> um weitere
+	  Informationen zu erhalten.</para>
       </sect3>
 
       <sect3 xml:id="zfs-zfs-snapshot-rollback">
@@ -2290,7 +2289,7 @@ M       /var/tmp/
 	<para>Wenn zumindest ein Schnappschuss vorhanden ist, kann
 	  dieser zu einem beliebigen Zeitpunkt zurückgerollt werden.
 	  In den meisten Fällen passiert dies, wenn der aktuelle
-	  Zustand des Datasets nicht mehr benötigt wurd und eine
+	  Zustand des Datasets nicht mehr benötigt wird und eine
 	  ältere Version bevorzugt wird.  Szenarien wie lokale
 	  Entwicklungstests, die fehlgeschlagen sind, defekte
 	  Systemaktualisierungen, welche die Funktionalität des
@@ -2309,7 +2308,7 @@ M       /var/tmp/
 	  dies passiert, ist das Dataset immer noch aktiv und
 	  erreichbar ohne dass eine Ausfallzeit nötig wäre.  Sobald
 	  der Schnappschuss zurückgerollt wurde, besitzt das Dataset
-	  den gleichen Zustand, den es besass, als der Schnappschuss
+	  den gleichen Zustand, den es besaß, als der Schnappschuss
 	  angelegt wurde.  Alle anderen Daten in diesem Dataset, die
 	  nicht Teil des Schnappschusses sind, werden verworfen.
 	  Einen Schnappschuss des aktuellen Zustandes des Datasets vor
@@ -2318,9 +2317,9 @@ M       /var/tmp/
 	  der Benutzer vor und zurück zwischen den Schnappschüssen
 	  springen, ohne wertvolle Daten zu verlieren.</para>
 
-	<para>Im ersten Beispiel wird en Schnappschuss aufgrund eines
+	<para>Im ersten Beispiel wird ein Schnappschuss aufgrund eines
 	  unvorsichtigen <command>rm</command>-Befehls zurückgerollt,
-	  der zuviele Daten gelöscht hat, als vorgesehen.</para>
+	  der mehr Daten gelöscht hat, als vorgesehen.</para>
 
 	<screen>&prompt.root; <userinput>zfs list -rt all <replaceable>mypool/var/tmp</replaceable></userinput>
 NAME                                   USED  AVAIL  REFER  MOUNTPOINT
@@ -2339,7 +2338,7 @@ vi.recover
 	  Dateien gelöscht wurden und möchte diese zurück haben.
 	  <acronym>ZFS</acronym> bietet eine einfache Möglichkeit,
 	  diese durch zurückrollen zurück zu bekommen, allerdings nur,
-	  wenn Schnappschüsse von wichtigen Daten regelmässig angelegt
+	  wenn Schnappschüsse von wichtigen Daten regelmäßig angelegt
 	  werden.  Um die Dateien zurückzuerhalten und vom letzten
 	  Schnappschuss wieder zu beginnen, geben Sie ein:</para>
 
@@ -2369,9 +2368,9 @@ mypool/var/tmp at diff_snapshot</screen>
 	  zwischen dem momentanen Stand des Datasets und dem
 	  Schnappschuss, zu dem der Benutzer zurückrollen möchte,
 	  existieren.  Um das Zurückrollen durchzuführen, müssen die
-	  Schnappschüsse gelöscht werden. <acronym>ZFS</acronym> kann
+	  Schnappschüsse gelöscht werden.  <acronym>ZFS</acronym> kann
 	  nicht alle Änderungen zwischen verschiedenen Zuständen
-	  eines Datasets verfolgen, da Schnappschüsse zur gelesen
+	  eines Datasets verfolgen, da Schnappschüsse nur gelesen
 	  werden können.  <acronym>ZFS</acronym> wird nicht die
 	  betroffenen Schnappschüsse löschen, es sei denn, der
 	  Benutzer verwendet die Option <option>-r</option>, um
@@ -2400,7 +2399,7 @@ vi.recover</screen>
 	<para>Schnappschüsse sind unter einem versteckten Verzeichnis
 	  unter dem Eltern-Dataset eingehängt:
 	  <filename>.zfs/snapshots/<replaceable>snapshotname</replaceable></filename>.
-	  Standardmässig werden diese Verzeichnisse nicht von einem
+	  Standardmäßig werden diese Verzeichnisse nicht von einem
 	  gewöhnlichen <command>ls -a</command> angezeigt.  Obwohl
 	  diese Verzeichnisse nicht angezeigt werden, sind diese
 	  trotzdem vorhanden und der Zugriff darauf erfolgt wie auf
@@ -2508,7 +2507,7 @@ cp: /var/tmp/.zfs/snapshot/after_cp/rc.c
 	Schnappschusses.</para>
 
       <para>Um diese Klon-Funktionalität zu demonstrieren, wird dieses
-        Beispiel-Dataset verwendet:</para>
+	Beispiel-Dataset verwendet:</para>
 
       <screen>&prompt.root; <userinput>zfs list -rt all <replaceable>camino/home/joe</replaceable></userinput>
 NAME                    USED  AVAIL  REFER  MOUNTPOINT
@@ -2548,7 +2547,7 @@ usr/home/joenew     1.3G     31k    1.3G
 	Eigenschaft namens <literal>origin</literal> auf.  Sobald die
 	Abhängigkeit zwischen dem Schnappschuss und dem Klon durch das
 	Befördern des Klons mittels <command>zfs promote</command>
-	entfernt wurde, wird auch die 
+	entfernt wurde, wird auch die
 	<literal>origin</literal>-Eigenschaft des Klons entfernt, da
 	es sich nun um ein eigenständiges Dataset handelt.  Dieses
 	Beispiel demonstriert dies:</para>
@@ -2584,14 +2583,14 @@ usr/home/joe        1.3G    128k    1.3G
       <para>Der geklonte Schnappschuss wird jetzt wie ein
 	gewöhnliches Dataset behandelt.  Es enthält alle Daten aus dem
 	ursprünglichen Schnappschuss inklusive der Dateien, die
-	anschliessend hinzugefügt wurden, wie
+	anschließend hinzugefügt wurden, wie
 	<filename>loader.conf</filename>.  Klone können in
 	unterschiedlichen Szenarien eingesetzt werden, um nützliche
 	Eigenschaften für ZFS-Anwender zur Verfügung zu stellen.
 	Zum Beispiel können Jails als Schnappschüsse bereitgestellt
 	werden, die verschiedene Arten von installierten Anwendungen
 	anbieten.  Anwender können diese Schnappschüsse klonen und
-	ihre eigenen Anwendungen nach belieben hinzufügen.  Sobald
+	ihre eigenen Anwendungen nach Belieben hinzufügen.  Sobald
 	sie mit den Änderungen zufrieden sind, können die Klone zu
 	vollständigen Datasets ernannt werden und dem Anwender zur
 	Verfügung gestellt werden, als würde es sich um echte
@@ -2606,7 +2605,7 @@ usr/home/joe        1.3G    128k    1.3G
       <para>Daten auf einem einzigen Pool an einem Platz
 	aufzubewahren, setzt diese dem Risiko aus, gestohlen oder
 	Opfer von Naturgewalten zu werden, sowie menschlichem
-	Versagen auszusetzen.   Regelmässige Sicherungen des gesamten
+	Versagen auszusetzen.   Regelmäßige Sicherungen des gesamten
 	Pools ist daher unerlässlich.  <acronym>ZFS</acronym> bietet
 	eine Reihe von eingebauten Serialisierungsfunktionen an, die
 	in der Lage ist, eine Repräsentation der Daten als Datenstrom
@@ -2630,8 +2629,8 @@ backup  960M    77K   896M     0%  1.00x
 mypool  984M  43.7M   940M     4%  1.00x  ONLINE  -</screen>
 
       <para>Der Pool namens <replaceable>mypool</replaceable> ist der
-	primäre Pool, auf den regelmässig Daten geschrieben und auch
-	wieder gelesen werden. Ein zweiter Pool, genannt
+	primäre Pool, auf den regelmäßig Daten geschrieben und auch
+	wieder gelesen werden.  Ein zweiter Pool, genannt
 	<replaceable>backup</replaceable> wird verwendet, um als
 	Reserve zu dienen im Falle, dass der primäre Pool nicht zur
 	Verfügung steht.  Beachten Sie, dass diese Ausfallsicherung
@@ -2644,7 +2643,7 @@ mypool  984M  43.7M   940M     4%  1.00x
 	den <replaceable>backup</replaceable>-Pool abgelegt werden.
 	Nur Schnappschüsse lassen sich auf diese Weise replizieren.
 	Änderungen, die seit dem letzten Schnappschuss entstanden
-	sind, werden nicht mit repliziert.</para> 
+	sind, werden nicht mit repliziert.</para>
 
       <screen>&prompt.root; <userinput>zfs snapshot <replaceable>mypool</replaceable>@<replaceable>backup1</replaceable></userinput>
 &prompt.root; <userinput>zfs list -t snapshot</userinput>
@@ -2667,10 +2666,10 @@ You must redirect standard output.</scre
       <para>Um ein Dataset mit <command>zfs send</command> zu
 	replizieren, leiten Sie dieses in eine Datei auf dem
 	eingehängten Backup-Pool um.  Stellen Sie sicher, dass der
-	Pool genug freien Speicherplatz besitzt, um die Grösse des
+	Pool genug freien Speicherplatz besitzt, um die Größe des
 	gesendeten Schnappschusses aufzunehmen.  Das beinhaltet alle
 	Daten im Schnappschuss, nicht nur die Änderungen zum
-	vorherigen Schnappschuss.</para> 
+	vorherigen Schnappschuss.</para>
 
       <screen>&prompt.root; <userinput>zfs send <replaceable>mypool</replaceable>@<replaceable>backup1</replaceable> > <replaceable>/backup/backup1</replaceable></userinput>
 &prompt.root; <userinput>zpool list</userinput>
@@ -2777,12 +2776,12 @@ mypool at replica2                         
 	  Dateien und Daten vom Pool
 	  <replaceable>mypool</replaceable> verfügbar.  Wenn die
 	  Option <option>-P</option> angegeben wird, werden die
-	  Eigenschaften des Datasets kopiert, einschliesslich der
-	  Komprimierungseinstellungen, Quotas und Einhängpunkte. 
+	  Eigenschaften des Datasets kopiert, einschließlich der
+	  Komprimierungseinstellungen, Quotas und Einhängepunkte.
 	  Wird die Option <option>-R</option> verwendet, so werden
 	  alle Kind-Datasets des angegebenen Datasets kopiert,
 	  zusammen mit ihren Eigenschaften.  Senden und Empfangen kann
-	  automatisiert werden, so dass regelmässig Sicherungen auf
+	  automatisiert werden, so dass regelmäßig Sicherungen auf
 	  dem zweiten Pool angelegt werden.</para>
       </sect3>
 
@@ -2791,7 +2790,7 @@ mypool at replica2                         
 	  <application>SSH</application> senden</title>
 
 	<para>Datenströme über das Netzwerk zu schicken ist eine gute
-	  Methode, um Sicherungen ausserhalb des Systems anzulegen.
+	  Methode, um Sicherungen außerhalb des Systems anzulegen.
 	  Jedoch ist dies auch mit einem Nachteil verbunden.  Daten,
 	  die über die Leitung verschickt werden, sind nicht
 	  verschlüsselt, was es jedem erlaubt, die Daten abzufangen
@@ -2801,9 +2800,9 @@ mypool at replica2                         
 	  das Internet auf ein entferntes System gesendet werden.
 	  <application>SSH</application> kann benutzt werden, um
 	  durch Verschlüsselung geschützte Daten über eine
-	  Netzwerkverbindung zu übertragen. Da <acronym>ZFS</acronym>
+	  Netzwerkverbindung zu übertragen.  Da <acronym>ZFS</acronym>
 	  nur die Anforderung hat, dass der Strom von der
-	  Standardausgaben umgeleitet wird, ist es relativ einfach,
+	  Standardausgabe umgeleitet wird, ist es relativ einfach,
 	  diesen durch <application>SSH</application> zu leiten.  Um
 	  den Inhalt des Dateisystems während der Übertragung und auf
 	  dem entfernten System weiterhin verschlüsselt zu lassen,
@@ -2811,10 +2810,10 @@ mypool at replica2                         
 	    xlink:href="http://wiki.freebsd.org/PEFS">PEFS</link>
 	  nach.</para>
 
-	<para>Ein paar Einstellungen udn Sicherheitsvorkehrungen
+	<para>Ein paar Einstellungen und Sicherheitsvorkehrungen
 	  müssen zuvor abgeschlossen sein.  Es werden hier nur die
 	  nötigen Schritte für die <command>zfs send</command>-Aktion
-	  gezeigt. Weiterführende Informationen zu
+	  gezeigt.  Weiterführende Informationen zu
 	  <application>SSH</application>, gibt es im Kapitel
 	  <xref linkend="openssh"/>.</para>
 
@@ -2836,13 +2835,13 @@ mypool at replica2                         
 	      <systemitem class="username">root</systemitem>.
 	      Allerdings ist das Anmelden als <systemitem
 	      class="username">root</systemitem> aus
-	      Sicherheitsgründen standardmässig deaktiviert.  Mit
+	      Sicherheitsgründen standardmäßig deaktiviert.  Mit
 	      <link linkend="zfs-zfs-allow">ZFS Delegation</link>
 	      lassen sich nicht-<systemitem
 	      class="username">root</systemitem>-Benutzer auf jedem
 	      System einrichten, welche die nötigen Rechte besitzen,
 	      um die Sende- und Empfangsoperation
-	      durchzuführen.</para> 
+	      durchzuführen.</para>
 	  </listitem>
 
 	  <listitem>
@@ -2852,7 +2851,7 @@ mypool at replica2                         
 	  </listitem>
 
 	  <listitem>
-	    <para>Um den Pool einzuhängen, muss der unpriviligierte
+	    <para>Um den Pool einzuhängen, muss der unprivilegierte
 	      Benutzer das Verzeichnis besitzen und gewöhnliche
 	      Benutzern muss die Erlaubnis gegeben werden, das
 	      Dateisystem einzuhängen.  Auf dem empfangenden System
@@ -2867,7 +2866,7 @@ vfs.usermount: 0 -> 1
 	  </listitem>
 	</itemizedlist>
 
-	<para>Der unpriviligierte Benutzer hat jetzt die Fähigkeit,
+	<para>Der unprivilegierte Benutzer hat jetzt die Fähigkeit,
 	  Datasets zu empfangen und einzuhängen und das
 	  <replaceable>home</replaceable>-Dataset auf das entfernte
 	  System zu replizieren:</para>
@@ -2895,7 +2894,7 @@ vfs.usermount: 0 -> 1
 	  <option>-u</option> wird das Dateisystem nicht auf der
 	  Empfängerseite eingehängt.  Wenn <option>-v</option>
 	  enthalten ist, werden mehr Details zum Transfer angezeigt
-	  werden, einschliesslich der vergangenen Zeit und der Menge
+	  werden, einschließlich der vergangenen Zeit und der Menge
 	  an übertragenen Daten.</para>
       </sect3>
     </sect2>
@@ -2905,7 +2904,7 @@ vfs.usermount: 0 -> 1
 
       <para><link linkend="zfs-term-quota">Dataset-Quotas</link>
 	werden eingesetzt, um den Speicherplatz einzuschränken, den
-	ein bestimmtes Dataset verbrauchen kann. <link
+	ein bestimmtes Dataset verbrauchen kann.  <link
 	  linkend="zfs-term-refquota">Referenz-Quotas</link>
 	funktionieren auf eine ähnliche Weise, jedoch wird dabei der
 	Speicherplatz des Datasets selbst gezählt, wobei
@@ -2917,19 +2916,19 @@ vfs.usermount: 0 -> 1
 	gesamten Speicherplatz im Pool oder auf dem Dataset zu
 	verbrauchen.</para>
 
-      <para>Um eine 10 GB grösse Quota auf dem Dataset
+      <para>Um ein 10 GB großes Quota auf dem Dataset
 	<filename>storage/home/bob</filename> zu erzwingen, verwenden
 	Sie folgenden Befehl:</para>
 
       <screen>&prompt.root; <userinput>zfs set quota=10G storage/home/bob</userinput></screen>
 
-      <para>Um eine Referenzquota von 10 GB für
+      <para>Um ein Referenzquota von 10 GB für
 	<filename>storage/home/bob</filename> festzulegen, geben Sie
 	ein:</para>
 
       <screen>&prompt.root; <userinput>zfs set refquota=10G storage/home/bob</userinput></screen>
 
-      <para>Um eine Quota für <filename>storage/home/bob</filename>
+      <para>Um das Quota für <filename>storage/home/bob</filename>
 	wieder zu entfernen:</para>
 
       <screen>&prompt.root; <userinput>zfs set quota=none storage/home/bob</userinput></screen>
@@ -2961,13 +2960,13 @@ vfs.usermount: 0 -> 1
 	</listitem>
       </itemizedlist>
 
-      <para>Um beispielsweise eine Benutzerquota von 50 GB für
+      <para>Um beispielsweise ein Benutzerquota von 50 GB für
 	den Benutzer names <replaceable>joe</replaceable> zu
 	erzwingen:</para>
 
       <screen>&prompt.root; <userinput>zfs set userquota at joe=50G</userinput></screen>
 
-      <para>Um jegliche Quota zu entfernen:</para>
+      <para>Um jegliche Quotas zu entfernen:</para>
 
       <screen>&prompt.root; <userinput>zfs set userquota at joe=none</userinput></screen>
 
@@ -2986,7 +2985,7 @@ vfs.usermount: 0 -> 1
 	lautet:
 	<literal>groupquota@<replaceable>group</replaceable>=<replaceable>size</replaceable></literal>.</para>
 
-      <para>Um eine Quota für die Gruppe
+      <para>Um ein Quota für die Gruppe
 	<replaceable>firstgroup</replaceable> von 50 GB zu
 	setzen, geben Sie ein:</para>
 
@@ -3017,8 +3016,8 @@ vfs.usermount: 0 -> 1
 	&man.zfs.1;.</para>
 
       <para>Benutzer mit ausreichenden Rechten sowie <systemitem
-	  class="username">root</systemitem> können die Quota für
-	<filename>storage/home/bob</filename> anzeigen:</para>
+	  class="username">root</systemitem> können das Quota für
+	<filename>storage/home/bob</filename> anzeigen lassen:</para>
 
       <screen>&prompt.root; <userinput>zfs get quota storage/home/bob</userinput></screen>
     </sect2>
@@ -3037,7 +3036,7 @@ vfs.usermount: 0 -> 1
       <para>Das generelle Format der
 	<literal>reservation</literal>-Eigenschaft ist
 	<literal>reservation=<replaceable>size</replaceable></literal>.
-	Um also eine Reservierung von 10 GB auf 
+	Um also eine Reservierung von 10 GB auf
 	<filename>storage/home/bob</filename> festzulegen, geben Sie
 	Folgendes ein:</para>
 
@@ -3083,8 +3082,8 @@ vfs.usermount: 0 -> 1

*** DIFF OUTPUT TRUNCATED AT 1000 LINES ***


More information about the svn-doc-all mailing list