svn commit: r46583 - head/de_DE.ISO8859-1/books/handbook/zfs
Bjoern Heidotting
bhd at FreeBSD.org
Tue Apr 21 17:42:05 UTC 2015
Author: bhd
Date: Tue Apr 21 17:42:04 2015
New Revision: 46583
URL: https://svnweb.freebsd.org/changeset/doc/46583
Log:
Couple of small fixes, including:
- Typos
- EOL whitespace
- Replace space with tabs
- Two spaces after a sentence
- Reword sentences to improve readability
Approved by: bcr (mentor)
Modified:
head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
Modified: head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml
==============================================================================
--- head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml Tue Apr 21 17:17:25 2015 (r46582)
+++ head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml Tue Apr 21 17:42:04 2015 (r46583)
@@ -57,7 +57,7 @@
<para>Das <emphasis>Z-Dateisystem</emphasis>, oder kurz
<acronym>ZFS</acronym>, ist ein fortgeschrittenes Dateisystem, das
- entwickelt wurde, um viele der grossen Probleme in vorherigen
+ entwickelt wurde, um viele der großen Probleme in vorherigen
Entwicklungen zu überwinden.</para>
<para>Ursprünglich von &sun; entworfen, wird die weitere Entwicklung
@@ -65,7 +65,7 @@
xlink:href="http://open-zfs.org">OpenZFS Projekt</link>
vorangetrieben.</para>
- <para><acronym>ZFS</acronym> hat drei grosse Entwurfsziele:</para>
+ <para><acronym>ZFS</acronym> hat drei große Entwurfsziele:</para>
<itemizedlist>
<listitem>
@@ -85,7 +85,7 @@
einem Pool zusammengefasst und der Speicherplatz wird von
diesem gemeinsam genutzten Pool allokiert. Der Speicherplatz
steht allen Dateisystemen zur Verfügung und kann durch das
- Hinzufügen von neuen Speichermedien vergrössert werden.</para>
+ Hinzufügen von neuen Speichermedien vergrößert werden.</para>
</listitem>
<listitem>
@@ -95,7 +95,7 @@
hauptspeicherbasierter Zwischenspeicher für Leseanfragen. Auf
einer zweiten Stufe kann ein plattenbasierter <link
linkend="zfs-term-l2arc">L2ARC</link>-Lesezwischenspeicher
- hinzugefügt werden. Zusätzlich ist auch noch ein
+ hinzugefügt werden. Zusätzlich ist auch noch ein
plattenbasierter, synchroner Schreibzwischenspeicher
verfügbar, der sog. <link
linkend="zfs-term-zil">ZIL</link>.</para>
@@ -114,7 +114,7 @@
Dateisystem ist. Durch die Kombination von traditionell
getrennten Rollen von Volumenmanager und Dateisystem ist
<acronym>ZFS</acronym> mit einzigartigen Vorteilen ausgestattet.
- Das Dateisystem besitzt jetzt Kentniss von der zugrundeliegenden
+ Das Dateisystem besitzt jetzt Kenntnis von der zugrundeliegenden
Struktur der Speichermedien. Traditionelle Dateisysteme konnten
nur auf einer einzigen Platte gleichzeitig angelegt werden.
Falls es zwei Festplatten gab, mussten auch zwei getrennte
@@ -127,20 +127,20 @@
Fall von Software-<acronym>RAID</acronym>-Lösungen, wie die, die
von <acronym>GEOM</acronym> bereitgestellt werden, war das
<acronym>UFS</acronym>-Dateisystem der Ansicht, dass es auf nur
- einem einzigen Gerät angelegt wurde. <acronym>ZFS</acronym>'
+ einem einzigen Gerät angelegt wurde. <acronym>ZFS</acronym>'s
Kombination eines Volumenmanagers und eines Dateisystems löst
dies und erlaubt das Erstellen von vielen Dateisystemen, die
sich alle den darunterliegenden Pool aus verfügbarem Speicher
- teilen. Einer der grössten Vorteile von <acronym>ZFS</acronym>'
- Kentniss des physikalischen Layouts der Platten ist, dass
+ teilen. Einer der größten Vorteile von <acronym>ZFS</acronym>'s
+ Kenntnis des physikalischen Layouts der Platten ist, dass
existierende Dateisysteme automatisch wachsen können, wenn
zusätzliche Platten zum Pool hinzugefügt werden. Dieser neue
Speicherplatz wird dann allen Dateisystemen zur Verfügung
gestellt. <acronym>ZFS</acronym> besitzt ebenfalls eine Menge
an unterschiedlichen Eigenschaften, die für jedes Dateisystem
- angepasst werden könnnen, was viele Vorteile bringt, wenn man
+ angepasst werden können, was viele Vorteile bringt, wenn man
unterschiedliche Dateisysteme und Datasets anlegt, anstatt ein
- einziges, monolitisches Dateisystem zu erzeugen.</para>
+ einziges, monolithisches Dateisystem zu erzeugen.</para>
</sect1>
<sect1 xml:id="zfs-quickstart">
@@ -170,7 +170,7 @@
<title>Pools mit einer Platte</title>
<para>Um einen einfachen, nicht-redundanten Pool mit einem
- einzigen Gerät anzulegen, geben Sie folgendes ein:</para>
+ einzigen Gerät anzulegen, geben Sie folgendes ein:</para>
<screen>&prompt.root; <userinput>zpool create <replaceable>example</replaceable> <replaceable>/dev/da0</replaceable></userinput></screen>
@@ -208,7 +208,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 2
<para>Das <literal>example/compressed</literal>-Dataset ist nun
ein komprimiertes <acronym>ZFS</acronym>-Dateisystem.
- Versuchen Sie, ein paar grosse Dateien auf
+ Versuchen Sie, ein paar große Dateien auf
<filename>/example/compressed</filename> zu kopieren.</para>
<para>Deaktivieren lässt sich die Komprimierung durch:</para>
@@ -217,7 +217,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 2
<para>Um ein Dateisystem abzuhängen, verwenden Sie
<command>zfs umount</command> und überprüfen Sie dies
- anschliessend mit <command>df</command>:</para>
+ anschließend mit <command>df</command>:</para>
<screen>&prompt.root; <userinput>zfs umount example/compressed</userinput>
&prompt.root; <userinput>df</userinput>
@@ -251,8 +251,8 @@ example on /example (zfs, local)
example/compressed on /example/compressed (zfs, local)</screen>
<para>Nach der Erstellung können <acronym>ZFS</acronym>-Datasets
- wie jedes undere Dateisystem verwendet werden. Jedoch sind
- jede Menge undere Besonderheiten verfügbar, die individuell
+ wie jedes andere Dateisystem verwendet werden. Jedoch sind
+ jede Menge andere Besonderheiten verfügbar, die individuell
auf Dataset-Basis eingestellt sein können. Im Beispiel unten
wird ein neues Dateisystem namens <literal>data</literal>
angelegt. Wichtige Dateien werden dort abgespeichert, deshalb
@@ -284,8 +284,8 @@ example/data 17547008 0 175
Partitionen und erlaubt es mehreren Dateisystemen den gleichen
Pool zu belegen.</para>
- <para>Um das Dateisystem zu zerstören und anschliessend den
- Pool, da dieser nicht mehr benötigt wird, geben Sie
+ <para>Um das Dateisystem und anschließend den Pool zu
+ zerstören, wenn dieser nicht mehr benötigt wird, geben Sie
ein:</para>
<screen>&prompt.root; <userinput>zfs destroy example/compressed</userinput>
@@ -314,7 +314,7 @@ example/data 17547008 0 175
<para>&sun; empfiehlt, dass die Anzahl der Geräte in einer
<acronym>RAID</acronym>-Z Konfiguration zwischen drei und
neun beträgt. Für Umgebungen, die einen einzelnen Pool
- enötigen, der aus 10 oder mehr Platten besteht, sollten Sie
+ benötigen, der aus 10 oder mehr Platten besteht, sollten Sie
in Erwägung ziehen, diesen in kleinere
<acronym>RAID-Z</acronym>-Gruppen aufzuteilen. Falls nur
zwei Platten verfügbar sind und Redundanz benötigt wird,
@@ -349,7 +349,7 @@ example/data 17547008 0 175
<para>Daten von Anwendern werden nun auf dem frisch erstellten
<filename>/storage/home</filename> abgelegt. Überprüfen Sie
dies durch das Anlegen eines neuen Benutzers und das
- anschliessende Anmelden als dieser Benutzer.</para>
+ anschließende Anmelden als dieser Benutzer.</para>
<para>Versuchen Sie, einen Dateisystemschnappschuss anzulegen,
den Sie später wieder zurückrollen können:</para>
@@ -377,11 +377,11 @@ example/data 17547008 0 175
<screen>&prompt.root; <userinput>ls /storage/home/.zfs/snapshot</userinput></screen>
- <para>Es ist möglich, ein Skript zu schreiben, um regelmässig
+ <para>Es ist möglich, ein Skript zu schreiben, um regelmäßig
Schnappschüsse von Benutzerdaten anzufertigen. Allerdings
- verbrauchen Schnappschüsse über lange Zeit eine grosse Menge
+ verbrauchen Schnappschüsse über lange Zeit eine große Menge
an Speicherplatz. Der zuvor angelegte Schnappschuss kann
- durch folgendes Kommundo wieder entfernt werden:</para>
+ durch folgendes Kommando wieder entfernt werden:</para>
<screen>&prompt.root; <userinput>zfs destroy storage/home at 08-30-08</userinput></screen>
@@ -414,8 +414,8 @@ storage/home 26320512 0 26320512
abgeschlossen. Tägliche Informationen über den Status der
erstellten Dateisysteme können als Teil des nächtlichen
&man.periodic.8;-Berichts generiert werden. Fügen Sie dazu
- die folgende Zeile in die Datei
- <filename>/etc/periodic.conf</filename> ein:</para>
+ die folgende Zeile in <filename>/etc/periodic.conf</filename>
+ ein:</para>
<programlisting>daily_status_zfs_enable="YES"</programlisting>
</sect2>
@@ -424,7 +424,7 @@ storage/home 26320512 0 26320512
<title><acronym>RAID-Z</acronym> wiederherstellen</title>
<para>Jedes Software-<acronym>RAID</acronym> besitzt eine
- Methode, um den Zustund (<literal>state</literal>) zu
+ Methode, um den Zustand (<literal>state</literal>) zu
überprüfen. Der Status von <acronym>RAID-Z</acronym> Geräten
wird mit diesem Befehl angezeigt:</para>
@@ -437,8 +437,8 @@ storage/home 26320512 0 26320512
<screen>all pools are healthy</screen>
<para>Wenn es ein Problem gibt, womöglich ist eine Platte
- im Zustund <link linkend="zfs-term-offline">Offline</link>,
- dann wird der Poolzustund ähnlich wie dieser aussehen:</para>
+ im Zustand <link linkend="zfs-term-offline">Offline</link>,
+ dann wird der Poolzustand ähnlich wie dieser aussehen:</para>
<screen> pool: storage
state: DEGRADED
@@ -520,12 +520,12 @@ errors: No known data errors</screen>
<screen>&prompt.root; <userinput>zpool scrub storage</userinput></screen>
<para>Die Laufzeit einer Überprüfung hängt ab von der Menge an
- Daten, die gespeichert sind. Grössere Mengen an Daten
+ Daten, die gespeichert sind. Größere Mengen an Daten
benötigen proportional mehr Zeit zum überprüfen. Diese
Überprüfungen sind sehr <acronym>I/O</acronym>-intensiv und
es kann auch nur eine Überprüfung zur gleichen Zeit
durchgeführt werden. Nachdem eine Prüfung beendet ist, kann
- der Status mit dem Unterkommundo <command>status</command>
+ der Status mit dem Unterkommando <command>status</command>
angezeigt werden:</para>
<screen>&prompt.root; <userinput>zpool status storage</userinput>
@@ -559,7 +559,7 @@ errors: No known data errors</screen>
<para>Administration von <acronym>ZFS</acronym> ist unterteilt
zwischen zwei Hauptkommandos. Das
- <command>zpool</command>-Wekzeug steuert die Operationen des
+ <command>zpool</command>-Werkzeug steuert die Operationen des
Pools und kümmert sich um das Hinzufügen, entfernen, ersetzen
und verwalten von Platten. Mit dem <link
linkend="zfs-zfs"><command>zfs</command></link>-Befehl können
@@ -585,7 +585,7 @@ errors: No known data errors</screen>
gestatten, sowie stripes, die zu Spiegeln umgewandelt werden
können, indem man zusätzliche Platten zum vdev anhängt.
Obwohl weitere vdevs eingefügt werden können, um einen Pool zu
- vergrössern, kann das Layout des Pools nach dem Anlegen nicht
+ vergrößern, kann das Layout des Pools nach dem Anlegen nicht
mehr verändert werden. Stattdessen müssen die Daten
gesichert, der Pool zerstört und danach neu erstellt
werden.</para>
@@ -641,11 +641,11 @@ errors: No known data errors</screen>
Partition anstatt einer ganzen Platte verwendet wird. Durch
den Einsatz von Partitionen kann der Administrator die Platten
<emphasis>unter provisionieren</emphasis>, indem weniger als
- die volle Kapazität Verwendung findet. Wenn in Zukunft ein
- Ersatzfestplatte mit der gleichen Grösse als die
+ die volle Kapazität Verwendung findet. Wenn in Zukunft eine
+ Ersatzfestplatte mit der gleichen Größe als die
Originalplatte eine kleinere Kapazität aufweist, passt die
- kleinere Partition immer noch passen und die Ersatzplatte
- immer noch verwendet werden.</para>
+ kleinere Partition immer noch und die Ersatzplatte kann immer
+ noch verwendet werden.</para>
<para>Erstellen eines <link
linkend="zfs-term-vdev-raidz">RAID-Z2</link>-Pools mit
@@ -708,10 +708,10 @@ errors: No known data errors</screen>
<command>zpool attach</command> können auch zusätzliche
Platten zu einer Spiegelgruppe eingefügt werden, was die
Redundanz und Lesegeschwindigkeit steigert. Wenn die Platten,
- aus denen der Pool besteht, aus partitioniert sind,
- replizieren Sie das Layout der ersten Platte auf die Zweite
- und verwenden dann <command>gpart backup</command>, gefolgt
- von <command>gpart restore</command>, um diesen Vorgang
+ aus denen der Pool besteht, partitioniert sind,
+ replizieren Sie das Layout der ersten Platte auf die Zweite.
+ Verwenden Sie dazu <command>gpart backup</command> und
+ <command>gpart restore</command>, um diesen Vorgang
einfacher zu gestalten.</para>
<para>Umwandeln eines (stripe) vdevs namens
@@ -780,7 +780,7 @@ errors: No known data errors</screen>
Zusätzliche vdevs bieten höhere Geschwindigkeit, indem
Schreibvorgänge über die vdevs verteilt werden. Jedes vdev
ist dafür verantwortlich, seine eigene Redundanz
- sicherzustellen. Es ist möglich, aber nicht empfohlen,
+ sicherzustellen. Es ist möglich, aber nicht empfehlenswert,
vdev-Arten zu mischen, wie zum Beispiel
<literal>mirror</literal> und <literal>RAID-Z</literal>.
Durch das Einfügen eines nicht-redundanten vdev zu einem
@@ -920,21 +920,21 @@ errors: No known data errors</screen>
<para>Wenn ein Fehler erkannt wurde, werden die Lese-, Schreib-
oder Prüfsummenzähler erhöht. Die Fehlermeldung kann
- beseitigt und der Zähler zurückgesetzt werden mit
+ beseitigt und der Zähler mit
<command>zpool clear
- <replaceable>mypool</replaceable></command>. Den
- Fehlerzustand zurückzusetzen kann wichtig sein, wenn
- automatisierte Skripte ablaufen, die den Administrator
+ <replaceable>mypool</replaceable></command> zurückgesetzt
+ werden. Den Fehlerzustand zurückzusetzen kann wichtig sein,
+ wenn automatisierte Skripte ablaufen, die den Administrator
informieren, sobald der Pool Fehler anzeigt. Weitere Fehler
werden nicht gemeldet, wenn der alte Fehlerbericht nicht
entfernt wurde.</para>
</sect2>
<sect2 xml:id="zfs-zpool-replace">
- <title>Ein defektes Gerät entfernen</title>
+ <title>Ein funktionierendes Gerät ersetzen</title>
<para>Es gibt eine Reihe von Situationen, in denen es nötig
- wird, eine defekte Platte mit einer anderen auszutauschen.
+ ist, eine Platte mit einer anderen auszutauschen.
Wenn eine funktionierende Platte ersetzt wird, hält der
Prozess die alte Platte während des Ersetzungsvorganges noch
aktiv. Der Pool wird nie den Zustand <link
@@ -944,9 +944,9 @@ errors: No known data errors</screen>
<command>zpool replace</command> auf die Neue übertragen.
Nachdem die Operation abgeschlossen ist, wird die alte Platte
vom vdev getrennt. Falls die neue Platte grösser ist als die
- alte Platte , ist es möglich den Pool zu vergrössern, um den
+ alte Platte , ist es möglich den Pool zu vergrößern, um den
neuen Platz zu nutzen. Lesen Sie dazu <link
- linkend="zfs-zpool-online">Einen Pool vergrössern</link>.</para>
+ linkend="zfs-zpool-online">Einen Pool vergrößern</link>.</para>
<para>Ersetzen eines funktionierenden Geräts in einem
Pool:</para>
@@ -1031,10 +1031,10 @@ errors: No known data errors</screen>
<para>Falls das vdev keine Redundanz besitzt oder wenn mehrere
Geräte ausgefallen sind und es nicht genug Redundanz gibt, um
- zu kompensieren, geht der Pool in den Zustand <link
- linkend="zfs-term-faulted">faulted</link> über. Wenn eine
- ausreichende Anzahl von Geräten nicht wieder an den Pool
- angeschlossen werden können, fällt der Pool aus und die Daten
+ dies zu kompensieren, geht der Pool in den Zustand <link
+ linkend="zfs-term-faulted">faulted</link> über. Wenn keine
+ ausreichende Anzahl von Geräten wieder an den Pool
+ angeschlossen wird, fällt der Pool aus und die Daten
müssen von Sicherungen wieder eingespielt werden.</para>
<para>Wenn eine defekte Platte ausgewechselt wird, wird der Name
@@ -1102,12 +1102,12 @@ errors: No known data errors</screen>
<sect2 xml:id="zfs-zpool-scrub">
<title>Einen Pool überprüfen</title>
- <para>Es wird empfohlen, dass Pools regelmässig geprüft (<link
+ <para>Es wird empfohlen, dass Pools regelmäßig geprüft (<link
linkend="zfs-term-scrub">scrubbed</link>) werden,
idealerweise mindestens einmal pro Monat. Der
<command>scrub</command>-Vorgang ist beansprucht die Platte
sehr und reduziert die Geschwindigkeit während er läuft.
- Vermeiden Sie Zeiten, in denen grosser Bedarf besteht, wenn
+ Vermeiden Sie Zeiten, in denen großer Bedarf besteht, wenn
Sie <command>scrub</command> starten oder benutzen Sie <link
linkend="zfs-advanced-tuning-scrub_delay"><varname>vfs.zfs.scrub_delay</varname></link>,
um die relative Priorität vom <command>scrub</command>
@@ -1158,7 +1158,7 @@ errors: No known data errors</screen>
welche die Daten überprüfen und reparieren. Diese Kommandos
benötigen einige Zeit und in gravierenden Fällen muss ein
Administrator manuelle Entscheidungen treffen, welche
- Reparaturoperation vorgenommen werden soll. Wenn
+ Reparaturoperation vorgenommen werden soll. Wenn
<acronym>ZFS</acronym> einen defekten Datenblock mit einer
Prüfsumme erkennt, die nicht übereinstimmt, versucht es die
Daten von der gespiegelten Platte zu lesen. Wenn diese Platte
@@ -1209,12 +1209,12 @@ SHA1 (/healer) = 2753eff56d77d9a536ece66
Daten an den Anfang einer Platte des Spiegels simuliert. Um
<acronym>ZFS</acronym> daran zu hindern, die Daten so schnell
zu reparieren, wie es diese entdeckt, wird der Pool vor der
- Veränderung exportiert und anschliessend wieder
+ Veränderung exportiert und anschließend wieder
importiert.</para>
<warning>
<para>Dies ist eine gefährliche Operation, die wichtige Daten
- zerstören kann. Es wird hier nur zu Demonstrationszwecken
+ zerstören kann. Es wird hier nur zu Demonstrationszwecken
gezeigt und sollte nicht während des normalen Betriebs des
Pools versucht werden. Dieses vorsätzliche
Korrumpierungsbeispiel sollte auf gar keinen Fall auf einer
@@ -1341,10 +1341,10 @@ errors: No known data errors</screen>
<para>Nach der scrub-Operation und der anschliessenden
Synchronisation der Daten von <filename>ada0</filename> nach
- <filename>ada1</filename>, kann die Fehlermeldun vom
- Poolstatus <link linkend="zfs-zpool-clear">bereinigt</link>
- werden durch die Eingabe von
- <command>zpool clear</command>.</para>
+ <filename>ada1</filename>, kann die Fehlermeldung vom
+ Poolstatus durch die Eingabe von
+ <command>zpool clear</command>
+ <link linkend="zfs-zpool-clear">bereinigt</link> werden.</para>
<screen>&prompt.root; <userinput>zpool clear <replaceable>healer</replaceable></userinput>
&prompt.root; <userinput>zpool status <replaceable>healer</replaceable></userinput>
@@ -1361,7 +1361,7 @@ config:
errors: No known data errors</screen>
- <para>Der Pool ist jetzt wieder in einen voll funktionsfähigen
+ <para>Der Pool ist jetzt wieder in einem voll funktionsfähigen
Zustand versetzt worden und alle Fehler wurden
beseitigt.</para>
</sect2>
@@ -1369,20 +1369,20 @@ errors: No known data errors</screen>
<sect2 xml:id="zfs-zpool-online">
<title>Einen Pool vergrössern</title>
- <para>Die verwendbare Grösse eines redundant ausgelegten Pools
+ <para>Die verwendbare Größe eines redundant ausgelegten Pools
ist durch die Kapazität des kleinsten Geräts in jedem vdev
- begrenzt. Das kleinste Gerät kann durch ein grösseres Gerät
+ begrenzt. Das kleinste Gerät kann durch ein größeres Gerät
ersetzt werden. Nachdem eine <link
linkend="zfs-zpool-replace">replace</link> oder <link
linkend="zfs-term-resilver">resilver</link>-Operation
abgeschlossen wurde, kann der Pool anwachsen, um die Kapazität
des neuen Geräts zu nutzen. Nehmen wir als Beispiel einen
- Spiegel mit einer 1 TB und einer 2 TB Platte. Der
+ Spiegel mit einer 1 TB und einer 2 TB Platte. Der
verwendbare Plattenplatz beträgt 1 TB. Wenn die
1 TB Platte mit einer anderen 2 TB Platte ersetzt
wird, kopiert der resilver-Prozess die existierenden Daten auf
die neue Platte. Da beide Geräte nun 2 TB Kapazität
- besitzen, kann auch der verfügbare Plattenplatz auf die Grösse
+ besitzen, kann auch der verfügbare Plattenplatz auf die Größe
von 2 TB anwachsen.</para>
<para>Die Erweiterung wird durch das Kommando
@@ -1416,8 +1416,8 @@ errors: No known data errors</screen>
<para>Beim Importieren eines Pool werden auch automatisch alle
Datasets eingehängt. Dies ist möglicherweise nicht das
- bevorzugte Verhalten und wird durch
- <command>zpool import -N</command> verhindert. Durch
+ bevorzugte Verhalten und wird durch
+ <command>zpool import -N</command> verhindert. Durch
<command>zpool import -o</command> temporäre Eigenschaften nur
für diesen Import gesetzt. Mit dem Befehl
<command>zpool import altroot=</command> ist es möglich, einen
@@ -1425,10 +1425,9 @@ errors: No known data errors</screen>
des Dateisystems einzubinden. Wenn der Pool zuletzt auf einem
anderen System verwendet und nicht korrekt exportiert
wurde, muss unter Umständen ein Import erzwungen werden durch
- <command>zpool import -f</command>. Alle Pools lassen sich
- durch <command>zpool import -a</command> importieren, die
- nicht durch ein anderes System momemtan verwendet
- werden.</para>
+ <command>zpool import -f</command>. Alle Pools, die momentan
+ nicht durch ein anderes System verwendet werden, lassen sich
+ mit <command>zpool import -a</command> importieren.</para>
<para>Alle zum Import verfügbaren Pools auflisten:</para>
@@ -1455,7 +1454,7 @@ mypool 110K 47.0G 31K
<sect2 xml:id="zfs-zpool-upgrade">
<title>Einen Pool aktualisieren</title>
- <para>Nachdem &os; aktualisiert wurde oder wenn der Poo von
+ <para>Nachdem &os; aktualisiert wurde oder wenn der Pool von
einem anderen System, das eine ältere Version von
<acronym>ZFS</acronym> einsetzt, lässt sich der Pool manuell
auf den aktuellen Stand von <acronym>ZFS</acronym> bringen, um
@@ -1574,7 +1573,7 @@ Enabled the following features on 'mypoo
<warning>
<para>Der Bootcode muss auf Systemen, die von dem Pool
starten, aktualisiert werden, um diese neue Version zu
- unterstützen. Verwenden Sie
+ unterstützen. Verwenden Sie
<command>gpart bootcode</command> auf der Partition, die den
Bootcode enthält. Lesen Sie für weitere Informationen
&man.gpart.8;.</para>
@@ -1585,11 +1584,11 @@ Enabled the following features on 'mypoo
<title>Aufgezeichnete Historie des Pools anzeigen</title>
<para>Befehle, die den Pool in irgendeiner Form verändern,
- werden aufgezeichnet. Diese Befehle beinhalten das Erstellen
+ werden aufgezeichnet. Diese Befehle beinhalten das Erstellen
von Datasets, verändern von Eigenschaften oder das Ersetzen
einer Platte. Diese Historie ist nützlich um
nachzuvollziehen, wie ein Pool aufgebaut ist und welcher
- Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die
+ Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die
aufgezeichnete Historie wird nicht in einer Logdatei
festgehalten, sondern ist Teil des Pools selbst. Das Kommando
zum darstellen dieser Historie lautet passenderweise
@@ -1605,17 +1604,17 @@ History for 'tank':
<para>Die Ausgabe zeigt <command>zpool</command> und
<command>zfs</command>-Befehle, die ausgeführt wurden zusammen
mit einem Zeitstempel. Nur Befehle, die den Pool verändern
- werden aufgezeichnet. Befehle wie
- <command>zfs list</command> sind dabei nicht enthalten. Wenn
+ werden aufgezeichnet. Befehle wie
+ <command>zfs list</command> sind dabei nicht enthalten. Wenn
kein Name angegeben wird, erscheint die gesamte Historie aller
Pools.</para>
<para>Der Befehl <command>zpool history</command> kann sogar
noch mehr Informationen ausgeben, wenn die Optionen
<option>-i</option> oder <option>-l</option> angegeben
- werden. Durch <option>-i</option> zeigt <acronym>ZFS</acronym>
- vom Benutzer eingegebene, als auch interne Ereignisse
- an.</para>
+ werden. Durch <option>-i</option> zeigt
+ <acronym>ZFS</acronym> vom Benutzer eingegebene, als auch
+ interne Ereignisse an.</para>
<screen>&prompt.root; <userinput>zpool history -i</userinput>
History for 'tank':
@@ -1629,7 +1628,7 @@ History for 'tank':
<para>Weitere Details lassen sich durch die Angabe von
<option>-l</option> entlocken. Historische Einträge werden in
- einem langen Format ausgegeben, einschliesslich Informationen
+ einem langen Format ausgegeben, einschließlich Informationen
wie der Name des Benutzers, welcher das Kommando eingegeben
hat und der Hostname, auf dem die Änderung erfolgte.</para>
@@ -1642,7 +1641,7 @@ History for 'tank':
<para>Die Ausgabe zeigt, dass der Benutzer <systemitem
class="username">root</systemitem> den gespiegelten Pool mit
- den beiden Platten
+ den beiden Platten
<filename>/dev/ada0</filename> und
<filename>/dev/ada1</filename> angelegt hat. Der Hostname
<systemitem class="systemname">myzfsbox</systemitem> wird
@@ -1659,7 +1658,7 @@ History for 'tank':
eines Pools auszugeben. Die Pool Historie liefert wertvolle
Informationen, wenn Aktionen nachverfolgt werden müssen oder
zur Fehlerbeseitigung mehr Informationen gebraucht
- werden.</para>
+ werden.</para>
</sect2>
<sect2 xml:id="zfs-zpool-iostat">
@@ -1670,7 +1669,7 @@ History for 'tank':
zeigt die Menge von freiem und belegtem Speicherplatz auf dem
Pool an, wieviele Lese- und Schreiboperationen pro Sekunde
durchgeführt werden und die aktuell verwendete
- <acronym>I/O</acronym>-Bandbreite. Standardmässig werden alle
+ <acronym>I/O</acronym>-Bandbreite. Standardmäßig werden alle
Pools in einem System überwacht und angezeigt. Ein Poolname
kann angegeben werden, um die Anzeige auf diesen Pool zu
beschränken. Ein einfaches Beispiel:</para>
@@ -1684,7 +1683,7 @@ data 288G 1.53T 2 11
<para>Um kontinuierlich die <acronym>I/O</acronym>-Aktivität zu
überprüfen, kann eine Zahl als letzter Parameter angegeben
werden, die ein Intervall in Sekunden angibt, die zwischen den
- Aktulisierungen vergeben soll. Die nächste Zeile mit
+ Aktualisierungen vergehen soll. Die nächste Zeile mit
Statistikinformationen wird dann nach jedem Intervall
ausgegeben. Drücken Sie
<keycombo action="simul">
@@ -1748,29 +1747,29 @@ data 288G 1.53T
<para>Anders als in traditionellen Festplatten- und
Volumenmanagern wird der Plattenplatz in
- <acronym>ZFS</acronym> <emphasis>not</emphasis>
+ <acronym>ZFS</acronym> <emphasis>nicht</emphasis>
vorher allokiert. Bei traditionellen Dateisystemen gibt es,
nachdem der Plattenplatz partitioniert und
zugeteilt wurde, keine Möglichkeit, ein zusätzliches
Dateisystem hinzuzufügen, ohne eine neue Platte
- anzuschliessen. Mit
+ anzuschließen. Mit
<acronym>ZFS</acronym> lassen sich neue Dateisysteme zu jeder
Zeit anlegen. Jedes <link
linkend="zfs-term-dataset"><emphasis>Dataset</emphasis></link>
besitzt Eigenschaften wie Komprimierung, Deduplizierung,
Zwischenspeicher (caching), Quotas, genauso wie andere
nützliche Einstellungen wie Schreibschutz, Unterscheidung
- zwischen Gross- und Kleinschreibung, Netzwerkfreigaben und
+ zwischen Groß- und Kleinschreibung, Netzwerkfreigaben und
einen Einhängepunkt. Datasets können ineinander verschachtelt
werden und Kind-Datasets erben die Eigenschaften ihrer Eltern.
- Jedes Dataset kann als eine Einheit verwaltet,
+ Jedes Dataset kann als eine Einheit verwaltet,
<link linkend="zfs-zfs-allow">delegiert</link>,
<link linkend="zfs-zfs-send">repliziert</link>,
<link linkend="zfs-zfs-snapshot">mit Schnappschüssen
versehen</link>, <link linkend="zfs-zfs-jail">in Jails
gesteckt</link> und zerstört werden. Es gibt viele Vorteile,
ein separates Dataset für jede Art von Dateien anzulegen. Der
- einzige Nachteil einer grossen Menge an Datasets ist, dass
+ einzige Nachteil einer großen Menge an Datasets ist, dass
manche Befehle wie <command>zfs list</command> langsamer sind
und dass das Einhängen von hunderten oder hunderttausenden von
Datasets de &os;-Bootvorgang verzögert.</para>
@@ -1887,7 +1886,7 @@ mypool/var/tmp 152K 93.2G 152K
<para>Ein Volume kann mit einem beliebigen Dateisystem
formatiert werden oder auch ohne ein Dateisystem als reiner
- Datenspeicher zu dienen. Für den Benutzer erscheint ein
+ Datenspeicher fungieren. Für den Benutzer erscheint ein
Volume als eine gewöhnliche Platte. Indem gewöhnliche
Dateisysteme auf diesen <emphasis>zvols</emphasis> angelegt
werden, ist es möglich, diese mit Eigenschaften auszustatten,
@@ -1928,7 +1927,7 @@ Filesystem Size Used Avail Cap
neuen Elternteil geerbt wird). Dieses Verhalten kann durch
die Option <option>-u</option> verhindert werden.</para>
- <para>Ein Dataset umbenennen und unter einem anderes
+ <para>Ein Dataset umbenennen und unter einem anderen
Elterndataset verschieben:</para>
<screen>&prompt.root; <userinput>zfs list</userinput>
@@ -1992,11 +1991,10 @@ mypool/var/newname at new_snapshot_name
<replaceable>property</replaceable>=<replaceable>value</replaceable>
<replaceable>dataset</replaceable></command> fest. Die
meisten Eigenschaften haben eine begrenzte Menge von gültigen
- Werten. <command>zfs get</command> stellt diese dar und zeigt
- jede mögliche Eigenschaft und gültige Werte an. Die meisten
- Eigenschaften können wieder auf ihren Ausgangswert
- zurückgesetzt werden über
- <command>zfs inherit</command>.</para>
+ Werten. <command>zfs get</command> stellt diese dar und zeigt
+ jede mögliche Eigenschaft und gültige Werte an. Die meisten
+ Eigenschaften können über <command>zfs inherit</command>
+ wieder auf ihren Ausgangswert zurückgesetzt werden.</para>
<para>Benutzerdefinierte Eigenschaften lassen sich ebenfalls
setzen. Diese werden Teil der Konfiguration des Datasets und
@@ -2038,11 +2036,11 @@ tank custom:costcenter -
<acronym>COW</acronym>), können Schnappschüsse schnell
erstellt werden durch das Aufheben der älteren Version der
Daten auf der Platte. Falls kein Snapshot existiert, wird der
- Speicherplatz wieder für zukünfitge Verwendung freigegeben
+ Speicherplatz wieder für zukünftige Verwendung freigegeben
wenn Daten geschrieben oder gelöscht werden. Schnappschüsse
sparen Speicherplatz, indem diese nur die Unterschiede
zwischen dem momentanen Dataset und der vorherigen Version
- aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets
+ aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets
erlaubt, nicht auf individuellen Dateien oder Verzeichnissen.
Wenn ein Schnappschuss eines Datasets erstellt wird, wird
alles was darin enthalten ist, dupliziert. Das beinhaltet
@@ -2057,14 +2055,14 @@ tank custom:costcenter -
eine Anwendung Dateien auf mehreren Datasets ablegt, die
miteinander in Verbindung stehen oder voneinander abhängig
sind. Ohne Schnappschüsse würde ein Backup Kopien dieser
- Dateien zu unterschiedlichen Zeitpunkten enthalten.</para>
+ Dateien zu unterschiedlichen Zeitpunkten enthalten.</para>
<para>Schnappschüsse in <acronym>ZFS</acronym> bieten eine
Vielzahl von Eigenschaften, die selbst in anderen
Dateisystemen mit Schnappschussfunktion nicht vorhanden sind.
Ein typisches Beispiel zur Verwendung von Schnappschüssen ist,
den momentanen Stand des Dateisystems zu sichern,
- wenn eine riskante Aktion wie das Installieren von Softwre
+ wenn eine riskante Aktion wie das Installieren von Software
oder eine Systemaktualisierung durchgeführt wird. Wenn diese
Aktion fehlschlägt, so kann der Schnappschuss zurückgerollt
werden und das System befindet sich wieder in dem gleichen
@@ -2073,11 +2071,11 @@ tank custom:costcenter -
Schnappschuss gelöscht werden, um Speicherplatz frei zu geben.
Ohne Schnappschüsse, wird durch ein fehlgeschlagenes Update
eine Wiederherstellung der Sicherung fällig, was oft mühsam
- und zeitaufwändig ist, ausserdem ist währenddessen das System
+ und zeitaufwändig ist, außerdem ist währenddessen das System
nicht verwendbar. Schnappschüsse lassen sich schnell
und mit wenig bis gar keiner Ausfallzeit zurückrollen, selbst
wenn das System im normalen Betrieb läuft. Die Zeitersparnis
- ist enorm, wenn mehrere Terabyte grosse Speichersysteme
+ ist enorm, wenn mehrere Terabyte große Speichersysteme
eingesetzt werden und viel Zeit für das Kopieren der Daten vom
Sicherungssystem benötigt wird. Schnappschüsse sind jedoch
keine Ersatz für eine Vollsicherung des Pools, können jedoch
@@ -2161,12 +2159,12 @@ mypool/usr/home at my_recursive_snapshot
Schnappschüsse in <link linkend="zfs-term-cow">COW</link>
Manier funktionieren. Sie zeichnen nur die Änderungen
(<emphasis>delta</emphasis>) auf, die währenddessen
- enstanden sind und nicht noch einmal den gesamten Inhalt des
- Dateisystems. Das bedeutet, dass Schnappschüsse nur wenig
- Speicherplatz benötigen, wenn nur kleine Änderungen
+ entstanden sind und nicht noch einmal den gesamten Inhalt
+ des Dateisystems. Das bedeutet, dass Schnappschüsse nur
+ wenig Speicherplatz benötigen, wenn nur kleine Änderungen
vorgenommen werden. Der Speicherverbrauch kann sogar noch
deutlicher gemacht werden, wenn eine Datei auf das Dataset
- kopiert wird und anschliessend ein zweiter Schnappschuss
+ kopiert wird und anschließend ein zweiter Schnappschuss
angelegt wird:</para>
<screen>&prompt.root; <userinput>cp <replaceable>/etc/passwd</replaceable> <replaceable>/var/tmp</replaceable></userinput>
@@ -2180,7 +2178,7 @@ mypool/var/tmp at after_cp
<para>Der zweite Schnappschuss enthält nur die Änderungen am
Dataset, die nach der Kopieraktion gemacht wurden. Dies
bedeutet enorme Einsparungen von Speicherplatz. Beachten
- Sie, dass sich die Grösse des Schnappschusses
+ Sie, dass sich die Größe des Schnappschusses
<replaceable>mypool/var/tmp at my_recursive_snapshot</replaceable>
in der Spalte <literal>USED</literal> ebenfalls
geändert hat, um die Änderungen von sich selbst und dem
@@ -2250,7 +2248,7 @@ M /var/tmp/
<para>Vergleicht man die Ausgabe mit der Tabelle, wird klar,
dass <filename><replaceable>passwd</replaceable></filename>
- hinzugefügt wurde, nachdem der Schnappschuss
+ hinzugefügt wurde, nachdem der Schnappschuss
<literal><replaceable>mypool/var/tmp at my_recursive_snapshot</replaceable></literal>
erstellt wurde. Das resultierte ebenfalls in einer Änderung
am darüberliegenden Verzeichnis, das unter
@@ -2278,10 +2276,11 @@ M /var/tmp/
<para>Ein Administrator, der für die Sicherung zuständig ist,
kann zwei Schnappschüsse miteinander vergleichen, die vom
- sendenen Host empfangen wurden, um festzustellen, welche
- Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu den
- Abschnitt <link linkend="zfs-zfs-send">Replication</link>
- um weitere Informationen zu erhalten.</para>
+ sendenden Host empfangen wurden, um festzustellen, welche
+ Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu
+ den Abschnitt <link
+ linkend="zfs-zfs-send">Replication</link> um weitere
+ Informationen zu erhalten.</para>
</sect3>
<sect3 xml:id="zfs-zfs-snapshot-rollback">
@@ -2290,7 +2289,7 @@ M /var/tmp/
<para>Wenn zumindest ein Schnappschuss vorhanden ist, kann
dieser zu einem beliebigen Zeitpunkt zurückgerollt werden.
In den meisten Fällen passiert dies, wenn der aktuelle
- Zustand des Datasets nicht mehr benötigt wurd und eine
+ Zustand des Datasets nicht mehr benötigt wird und eine
ältere Version bevorzugt wird. Szenarien wie lokale
Entwicklungstests, die fehlgeschlagen sind, defekte
Systemaktualisierungen, welche die Funktionalität des
@@ -2309,7 +2308,7 @@ M /var/tmp/
dies passiert, ist das Dataset immer noch aktiv und
erreichbar ohne dass eine Ausfallzeit nötig wäre. Sobald
der Schnappschuss zurückgerollt wurde, besitzt das Dataset
- den gleichen Zustand, den es besass, als der Schnappschuss
+ den gleichen Zustand, den es besaß, als der Schnappschuss
angelegt wurde. Alle anderen Daten in diesem Dataset, die
nicht Teil des Schnappschusses sind, werden verworfen.
Einen Schnappschuss des aktuellen Zustandes des Datasets vor
@@ -2318,9 +2317,9 @@ M /var/tmp/
der Benutzer vor und zurück zwischen den Schnappschüssen
springen, ohne wertvolle Daten zu verlieren.</para>
- <para>Im ersten Beispiel wird en Schnappschuss aufgrund eines
+ <para>Im ersten Beispiel wird ein Schnappschuss aufgrund eines
unvorsichtigen <command>rm</command>-Befehls zurückgerollt,
- der zuviele Daten gelöscht hat, als vorgesehen.</para>
+ der mehr Daten gelöscht hat, als vorgesehen.</para>
<screen>&prompt.root; <userinput>zfs list -rt all <replaceable>mypool/var/tmp</replaceable></userinput>
NAME USED AVAIL REFER MOUNTPOINT
@@ -2339,7 +2338,7 @@ vi.recover
Dateien gelöscht wurden und möchte diese zurück haben.
<acronym>ZFS</acronym> bietet eine einfache Möglichkeit,
diese durch zurückrollen zurück zu bekommen, allerdings nur,
- wenn Schnappschüsse von wichtigen Daten regelmässig angelegt
+ wenn Schnappschüsse von wichtigen Daten regelmäßig angelegt
werden. Um die Dateien zurückzuerhalten und vom letzten
Schnappschuss wieder zu beginnen, geben Sie ein:</para>
@@ -2369,9 +2368,9 @@ mypool/var/tmp at diff_snapshot</screen>
zwischen dem momentanen Stand des Datasets und dem
Schnappschuss, zu dem der Benutzer zurückrollen möchte,
existieren. Um das Zurückrollen durchzuführen, müssen die
- Schnappschüsse gelöscht werden. <acronym>ZFS</acronym> kann
+ Schnappschüsse gelöscht werden. <acronym>ZFS</acronym> kann
nicht alle Änderungen zwischen verschiedenen Zuständen
- eines Datasets verfolgen, da Schnappschüsse zur gelesen
+ eines Datasets verfolgen, da Schnappschüsse nur gelesen
werden können. <acronym>ZFS</acronym> wird nicht die
betroffenen Schnappschüsse löschen, es sei denn, der
Benutzer verwendet die Option <option>-r</option>, um
@@ -2400,7 +2399,7 @@ vi.recover</screen>
<para>Schnappschüsse sind unter einem versteckten Verzeichnis
unter dem Eltern-Dataset eingehängt:
<filename>.zfs/snapshots/<replaceable>snapshotname</replaceable></filename>.
- Standardmässig werden diese Verzeichnisse nicht von einem
+ Standardmäßig werden diese Verzeichnisse nicht von einem
gewöhnlichen <command>ls -a</command> angezeigt. Obwohl
diese Verzeichnisse nicht angezeigt werden, sind diese
trotzdem vorhanden und der Zugriff darauf erfolgt wie auf
@@ -2508,7 +2507,7 @@ cp: /var/tmp/.zfs/snapshot/after_cp/rc.c
Schnappschusses.</para>
<para>Um diese Klon-Funktionalität zu demonstrieren, wird dieses
- Beispiel-Dataset verwendet:</para>
+ Beispiel-Dataset verwendet:</para>
<screen>&prompt.root; <userinput>zfs list -rt all <replaceable>camino/home/joe</replaceable></userinput>
NAME USED AVAIL REFER MOUNTPOINT
@@ -2548,7 +2547,7 @@ usr/home/joenew 1.3G 31k 1.3G
Eigenschaft namens <literal>origin</literal> auf. Sobald die
Abhängigkeit zwischen dem Schnappschuss und dem Klon durch das
Befördern des Klons mittels <command>zfs promote</command>
- entfernt wurde, wird auch die
+ entfernt wurde, wird auch die
<literal>origin</literal>-Eigenschaft des Klons entfernt, da
es sich nun um ein eigenständiges Dataset handelt. Dieses
Beispiel demonstriert dies:</para>
@@ -2584,14 +2583,14 @@ usr/home/joe 1.3G 128k 1.3G
<para>Der geklonte Schnappschuss wird jetzt wie ein
gewöhnliches Dataset behandelt. Es enthält alle Daten aus dem
ursprünglichen Schnappschuss inklusive der Dateien, die
- anschliessend hinzugefügt wurden, wie
+ anschließend hinzugefügt wurden, wie
<filename>loader.conf</filename>. Klone können in
unterschiedlichen Szenarien eingesetzt werden, um nützliche
Eigenschaften für ZFS-Anwender zur Verfügung zu stellen.
Zum Beispiel können Jails als Schnappschüsse bereitgestellt
werden, die verschiedene Arten von installierten Anwendungen
anbieten. Anwender können diese Schnappschüsse klonen und
- ihre eigenen Anwendungen nach belieben hinzufügen. Sobald
+ ihre eigenen Anwendungen nach Belieben hinzufügen. Sobald
sie mit den Änderungen zufrieden sind, können die Klone zu
vollständigen Datasets ernannt werden und dem Anwender zur
Verfügung gestellt werden, als würde es sich um echte
@@ -2606,7 +2605,7 @@ usr/home/joe 1.3G 128k 1.3G
<para>Daten auf einem einzigen Pool an einem Platz
aufzubewahren, setzt diese dem Risiko aus, gestohlen oder
Opfer von Naturgewalten zu werden, sowie menschlichem
- Versagen auszusetzen. Regelmässige Sicherungen des gesamten
+ Versagen auszusetzen. Regelmäßige Sicherungen des gesamten
Pools ist daher unerlässlich. <acronym>ZFS</acronym> bietet
eine Reihe von eingebauten Serialisierungsfunktionen an, die
in der Lage ist, eine Repräsentation der Daten als Datenstrom
@@ -2630,8 +2629,8 @@ backup 960M 77K 896M 0% 1.00x
mypool 984M 43.7M 940M 4% 1.00x ONLINE -</screen>
<para>Der Pool namens <replaceable>mypool</replaceable> ist der
- primäre Pool, auf den regelmässig Daten geschrieben und auch
- wieder gelesen werden. Ein zweiter Pool, genannt
+ primäre Pool, auf den regelmäßig Daten geschrieben und auch
+ wieder gelesen werden. Ein zweiter Pool, genannt
<replaceable>backup</replaceable> wird verwendet, um als
Reserve zu dienen im Falle, dass der primäre Pool nicht zur
Verfügung steht. Beachten Sie, dass diese Ausfallsicherung
@@ -2644,7 +2643,7 @@ mypool 984M 43.7M 940M 4% 1.00x
den <replaceable>backup</replaceable>-Pool abgelegt werden.
Nur Schnappschüsse lassen sich auf diese Weise replizieren.
Änderungen, die seit dem letzten Schnappschuss entstanden
- sind, werden nicht mit repliziert.</para>
+ sind, werden nicht mit repliziert.</para>
<screen>&prompt.root; <userinput>zfs snapshot <replaceable>mypool</replaceable>@<replaceable>backup1</replaceable></userinput>
&prompt.root; <userinput>zfs list -t snapshot</userinput>
@@ -2667,10 +2666,10 @@ You must redirect standard output.</scre
<para>Um ein Dataset mit <command>zfs send</command> zu
replizieren, leiten Sie dieses in eine Datei auf dem
eingehängten Backup-Pool um. Stellen Sie sicher, dass der
- Pool genug freien Speicherplatz besitzt, um die Grösse des
+ Pool genug freien Speicherplatz besitzt, um die Größe des
gesendeten Schnappschusses aufzunehmen. Das beinhaltet alle
Daten im Schnappschuss, nicht nur die Änderungen zum
- vorherigen Schnappschuss.</para>
+ vorherigen Schnappschuss.</para>
<screen>&prompt.root; <userinput>zfs send <replaceable>mypool</replaceable>@<replaceable>backup1</replaceable> > <replaceable>/backup/backup1</replaceable></userinput>
&prompt.root; <userinput>zpool list</userinput>
@@ -2777,12 +2776,12 @@ mypool at replica2
Dateien und Daten vom Pool
<replaceable>mypool</replaceable> verfügbar. Wenn die
Option <option>-P</option> angegeben wird, werden die
- Eigenschaften des Datasets kopiert, einschliesslich der
- Komprimierungseinstellungen, Quotas und Einhängpunkte.
+ Eigenschaften des Datasets kopiert, einschließlich der
+ Komprimierungseinstellungen, Quotas und Einhängepunkte.
Wird die Option <option>-R</option> verwendet, so werden
alle Kind-Datasets des angegebenen Datasets kopiert,
zusammen mit ihren Eigenschaften. Senden und Empfangen kann
- automatisiert werden, so dass regelmässig Sicherungen auf
+ automatisiert werden, so dass regelmäßig Sicherungen auf
dem zweiten Pool angelegt werden.</para>
</sect3>
@@ -2791,7 +2790,7 @@ mypool at replica2
<application>SSH</application> senden</title>
<para>Datenströme über das Netzwerk zu schicken ist eine gute
- Methode, um Sicherungen ausserhalb des Systems anzulegen.
+ Methode, um Sicherungen außerhalb des Systems anzulegen.
Jedoch ist dies auch mit einem Nachteil verbunden. Daten,
die über die Leitung verschickt werden, sind nicht
verschlüsselt, was es jedem erlaubt, die Daten abzufangen
@@ -2801,9 +2800,9 @@ mypool at replica2
das Internet auf ein entferntes System gesendet werden.
<application>SSH</application> kann benutzt werden, um
durch Verschlüsselung geschützte Daten über eine
- Netzwerkverbindung zu übertragen. Da <acronym>ZFS</acronym>
+ Netzwerkverbindung zu übertragen. Da <acronym>ZFS</acronym>
nur die Anforderung hat, dass der Strom von der
- Standardausgaben umgeleitet wird, ist es relativ einfach,
+ Standardausgabe umgeleitet wird, ist es relativ einfach,
diesen durch <application>SSH</application> zu leiten. Um
den Inhalt des Dateisystems während der Übertragung und auf
dem entfernten System weiterhin verschlüsselt zu lassen,
@@ -2811,10 +2810,10 @@ mypool at replica2
xlink:href="http://wiki.freebsd.org/PEFS">PEFS</link>
nach.</para>
- <para>Ein paar Einstellungen udn Sicherheitsvorkehrungen
+ <para>Ein paar Einstellungen und Sicherheitsvorkehrungen
müssen zuvor abgeschlossen sein. Es werden hier nur die
nötigen Schritte für die <command>zfs send</command>-Aktion
- gezeigt. Weiterführende Informationen zu
+ gezeigt. Weiterführende Informationen zu
<application>SSH</application>, gibt es im Kapitel
<xref linkend="openssh"/>.</para>
@@ -2836,13 +2835,13 @@ mypool at replica2
<systemitem class="username">root</systemitem>.
Allerdings ist das Anmelden als <systemitem
class="username">root</systemitem> aus
- Sicherheitsgründen standardmässig deaktiviert. Mit
+ Sicherheitsgründen standardmäßig deaktiviert. Mit
<link linkend="zfs-zfs-allow">ZFS Delegation</link>
lassen sich nicht-<systemitem
class="username">root</systemitem>-Benutzer auf jedem
System einrichten, welche die nötigen Rechte besitzen,
um die Sende- und Empfangsoperation
- durchzuführen.</para>
+ durchzuführen.</para>
</listitem>
<listitem>
@@ -2852,7 +2851,7 @@ mypool at replica2
</listitem>
<listitem>
- <para>Um den Pool einzuhängen, muss der unpriviligierte
+ <para>Um den Pool einzuhängen, muss der unprivilegierte
Benutzer das Verzeichnis besitzen und gewöhnliche
Benutzern muss die Erlaubnis gegeben werden, das
Dateisystem einzuhängen. Auf dem empfangenden System
@@ -2867,7 +2866,7 @@ vfs.usermount: 0 -> 1
</listitem>
</itemizedlist>
- <para>Der unpriviligierte Benutzer hat jetzt die Fähigkeit,
+ <para>Der unprivilegierte Benutzer hat jetzt die Fähigkeit,
Datasets zu empfangen und einzuhängen und das
<replaceable>home</replaceable>-Dataset auf das entfernte
System zu replizieren:</para>
@@ -2895,7 +2894,7 @@ vfs.usermount: 0 -> 1
<option>-u</option> wird das Dateisystem nicht auf der
Empfängerseite eingehängt. Wenn <option>-v</option>
enthalten ist, werden mehr Details zum Transfer angezeigt
- werden, einschliesslich der vergangenen Zeit und der Menge
+ werden, einschließlich der vergangenen Zeit und der Menge
an übertragenen Daten.</para>
</sect3>
</sect2>
@@ -2905,7 +2904,7 @@ vfs.usermount: 0 -> 1
<para><link linkend="zfs-term-quota">Dataset-Quotas</link>
werden eingesetzt, um den Speicherplatz einzuschränken, den
- ein bestimmtes Dataset verbrauchen kann. <link
+ ein bestimmtes Dataset verbrauchen kann. <link
linkend="zfs-term-refquota">Referenz-Quotas</link>
funktionieren auf eine ähnliche Weise, jedoch wird dabei der
Speicherplatz des Datasets selbst gezählt, wobei
@@ -2917,19 +2916,19 @@ vfs.usermount: 0 -> 1
gesamten Speicherplatz im Pool oder auf dem Dataset zu
verbrauchen.</para>
- <para>Um eine 10 GB grösse Quota auf dem Dataset
+ <para>Um ein 10 GB großes Quota auf dem Dataset
<filename>storage/home/bob</filename> zu erzwingen, verwenden
Sie folgenden Befehl:</para>
<screen>&prompt.root; <userinput>zfs set quota=10G storage/home/bob</userinput></screen>
- <para>Um eine Referenzquota von 10 GB für
+ <para>Um ein Referenzquota von 10 GB für
<filename>storage/home/bob</filename> festzulegen, geben Sie
ein:</para>
<screen>&prompt.root; <userinput>zfs set refquota=10G storage/home/bob</userinput></screen>
- <para>Um eine Quota für <filename>storage/home/bob</filename>
+ <para>Um das Quota für <filename>storage/home/bob</filename>
wieder zu entfernen:</para>
<screen>&prompt.root; <userinput>zfs set quota=none storage/home/bob</userinput></screen>
@@ -2961,13 +2960,13 @@ vfs.usermount: 0 -> 1
</listitem>
</itemizedlist>
- <para>Um beispielsweise eine Benutzerquota von 50 GB für
+ <para>Um beispielsweise ein Benutzerquota von 50 GB für
den Benutzer names <replaceable>joe</replaceable> zu
erzwingen:</para>
<screen>&prompt.root; <userinput>zfs set userquota at joe=50G</userinput></screen>
- <para>Um jegliche Quota zu entfernen:</para>
+ <para>Um jegliche Quotas zu entfernen:</para>
<screen>&prompt.root; <userinput>zfs set userquota at joe=none</userinput></screen>
@@ -2986,7 +2985,7 @@ vfs.usermount: 0 -> 1
lautet:
<literal>groupquota@<replaceable>group</replaceable>=<replaceable>size</replaceable></literal>.</para>
- <para>Um eine Quota für die Gruppe
+ <para>Um ein Quota für die Gruppe
<replaceable>firstgroup</replaceable> von 50 GB zu
setzen, geben Sie ein:</para>
@@ -3017,8 +3016,8 @@ vfs.usermount: 0 -> 1
&man.zfs.1;.</para>
<para>Benutzer mit ausreichenden Rechten sowie <systemitem
- class="username">root</systemitem> können die Quota für
- <filename>storage/home/bob</filename> anzeigen:</para>
+ class="username">root</systemitem> können das Quota für
+ <filename>storage/home/bob</filename> anzeigen lassen:</para>
<screen>&prompt.root; <userinput>zfs get quota storage/home/bob</userinput></screen>
</sect2>
@@ -3037,7 +3036,7 @@ vfs.usermount: 0 -> 1
<para>Das generelle Format der
<literal>reservation</literal>-Eigenschaft ist
<literal>reservation=<replaceable>size</replaceable></literal>.
- Um also eine Reservierung von 10 GB auf
+ Um also eine Reservierung von 10 GB auf
<filename>storage/home/bob</filename> festzulegen, geben Sie
Folgendes ein:</para>
@@ -3083,8 +3082,8 @@ vfs.usermount: 0 -> 1
*** DIFF OUTPUT TRUNCATED AT 1000 LINES ***
More information about the svn-doc-all
mailing list