]> Cypherpunks.ru repositories - nncp.git/blobdiff - doc/chunked.texi
Note about ZFS deduplication for chunked files
[nncp.git] / doc / chunked.texi
index 1682cc35ad83a50c576630f621d039fd177fb4d4..4ac50b7a139889e422cce0b9fc68220f2fd73125 100644 (file)
@@ -43,3 +43,13 @@ size and their hash checksums. This is
     variable length array of 32 byte fixed length opaque data @tab
     BLAKE2b-256 checksum of each chunk
 @end multitable
+
+@anchor{ChunkedZFS}
+It is strongly advisable to reassemble incoming chunked files on
+@url{https://en.wikipedia.org/wiki/ZFS, ZFS} dataset with deduplication
+feature enabled. It could be more CPU and memory hungry, but will save
+your disk's IO and free space from pollution (although temporary). But
+pay attention that you chunks must be either equal to, or divisible by
+dataset's @option{recordsize} value for deduplication workability.
+Default ZFS's @option{recordsize} is 128 KiBs, so it is advisable to
+chunk your files on 128, 256, 384, 512, etc KiB blocks.