docs/zh_cn/guide/sync.md
juicefs sync 是强大的数据同步工具,可以在所有支持的存储之间并发同步或迁移数据,包括对象存储、JuiceFS、本地文件系统,你可以在这三者之间以任意方向和搭配进行数据同步。除此之外,还支持同步通过 SSH 访问远程目录、HDFS、WebDAV 等,同时提供增量同步、模式匹配(类似 rsync)、分布式同步等高级功能。
:::tip 混用社区版和企业版客户端
juicefs sync 功能的代码在社区版和企业版之间共享代码,因此即便交叉混用不同版本的 JuiceFS 客户端,sync 命令也能正常工作——除了一个特例,就是使用 jfs:// 协议头的情况。社区版和企业版客户端有着不同的元数据引擎实现,因此如果用到了 jfs:// 协议头,则不能混用不同版本的客户端。
:::
juicefs sync 用法以及常见示范如下:
juicefs sync [command options] SRC DST
# 从 OSS 同步到 S3
juicefs sync oss://mybucket.oss-cn-shanghai.aliyuncs.com s3://mybucket.s3.us-east-2.amazonaws.com
# 拷贝所有以 .gz 结尾的文件
juicefs sync --match-full-path --include='**.gz' --exclude='*' s3://xxx s3://xxx
# 拷贝不以 .gz 结尾的所有文件
juicefs sync --match-full-path --exclude='**.gz' s3://xxx/ s3://xxx
# 拷贝所有文件,但忽略名为 tmpdir 的子目录
juicefs sync --match-full-path --exclude='**/tmpdir/**' s3://xxx/ s3://xxx
你可以通过 --exclude 和 --include 来包含或排除要同步的文件路径。如果不提供任何规则,默认会同步所有扫描到的文件(默认就是 --include='*')。但如果需要使用 --include 实现只包含特定命名模式的文件,则必须同时使用 --exclude 来排除其他文件,具体请参考上方的示范命令。
:::tip
当提供多个匹配模式时,取决于你具体使用的「过滤模式」,对于判断是否要同步某个文件可能会变得很困难。此时建议加上 --dry --debug 选项提前查看要同步的具体文件是否符合预期,如果不符合预期则需要调整匹配模式。
:::
匹配规则指的是给定一个路径与一个模式,然后确定该路径能否匹配上该模式。模式可以包含一些特殊字符(类似 shell 通配符):
* 匹配任意字符,但在遇到 / 时终止匹配;** 匹配任意字符,包括 /;? 匹配任意非 / 的单个字符;[...] 匹配一组字符,例如 [a-z] 匹配任意小写字母;[^...] 不匹配一组字符,例如 [^abc] 匹配除 a、b、c 外的任意字符。此外,还有一些匹配规则需要注意:
foo 可以匹配 foo 和 xx/foo,但不匹配 foo1(无法前缀匹配)、2foo(无法后缀匹配)和 foo/xx(foo 不是目录);/ 结尾,将只匹配目录,而不匹配普通文件;/ 开头,则表示匹配完整路径(路径不需要以 / 开头),因此 /foo 匹配的是传输中根目录的 foo 文件。以下是一些匹配模式的例子:
--exclude '*.o' 将排除所有文件名能匹配 *.o 的文件;--exclude '/foo/*/bar' 将排除根目录中名为 foo 的目录向下「两层」的目录中名为 bar 的文件;--exclude '/foo/**/bar' 将排除根目录中名为 foo 的目录向下「任意层级」的目录中名为 bar 的文件。sync 命令支持「完整路径过滤」和「逐层过滤」两种模式,这两种模式都支持使用 --include 和 --exclude 来过滤文件,但是解析的行为并不一样:默认情况下,sync 命令使用逐层过滤模式,这种模式的过滤行为无论是理解还是使用都较为复杂,但是基本兼容 rsync 的 --include/--exclude 选项,所以只推荐已经习惯了 rsync 过滤行为的用户使用。对于大多数 JuiceFS 用户,推荐通过 --match-full-path 选项来使用完整路径过滤模式,他的工作流程更容易理解。
从 v1.2.0 开始,sync 命令支持 --match-full-path 选项。完整路径过滤模式是指对于待匹配的对象,直接将其「全路径」与多个模式依次进行匹配,一旦某个匹配模式匹配成功将会直接返回结果(「同步」或者「排除」),忽略后续的匹配模式。
下面是完整路径过滤模式的工作流程图:
例如有一个路径为 a1/b1/c1.txt 的文件,以及 3 个匹配模式 --include 'a*.txt' --inlude 'c1.txt' --exclude 'c*.txt'。在完整路径过滤模式下,会直接将 a1/b1/c1.txt 这个字符串与匹配模式依次进行匹配。具体步骤为:
a1/b1/c1.txt 与 --include 'a*.txt' 匹配,结果是不匹配。因为 * 不能匹配 / 字符,参见「匹配规则」;a1/b1/c1.txt 与 --inlude 'c1.txt' 匹配,此时根据匹配规则将会匹配成功。后续的 --exclude 'c*.txt' 虽然根据匹配规则也能匹配上,但是根据完整路径过滤模式的逻辑,一旦匹配上某个模式,后续的模式将不再尝试匹配。所以最终的匹配结果是「同步」。以下是更多示例:
--exclude '/foo**' 将排除所有根目录名为 foo 的文件或目录;--exclude '**foo/**' 将排除所有以 foo 结尾的目录;--include '*/' --include '*.c' --exclude '*' 将只包含所有目录和后缀名为 .c 的文件,除此之外的所有文件和目录都会被排除;--include 'foo/bar.c' --exclude '*' 将只包含 foo 目录和 foo/bar.c 文件。逐层过滤模式的核心是先将完整路径按照目录层级拆分,并逐层组合成多个字符串序列。比如完整路径为 a1/b1/c1.txt,组成的序列就是 a1、a1/b1、a1/b1/c1.txt。然后将这个序列中的每个元素都当成完整路径过滤模式中的路径,依次执行「完整路径过滤」。
如果某个元素匹配上了某个模式,则会有两种处理逻辑:
如果某层的所有模式都未匹配,则进入下一层级。如果所有层级匹配完毕后都没有返回「排除」,则返回默认的行为——即「同步」。
下面是逐层过滤模式的工作流程图:
例如有一个路径为 a1/b1/c1.txt 的文件,以及 3 个匹配模式 --include 'a*.txt' --inlude 'c1.txt' --exclude 'c*.txt'。在逐层过滤模式中,组成的序列就是 a1、a1/b1、a1/b1/c1.txt。具体匹配步骤为:
a1,根据匹配模式,结果是全部未匹配。进入下一层级;a1/b1,根据匹配模式,结果是全部未匹配。进入下一层级;a1/b1/c1.txt,根据匹配模式,将会匹配上 --inlude 'c1.txt' 模式。该模式的行为是「同步」,进入下一层级;上面的例子是到最后一层才匹配成功,除此之外可能还有两种情况:
如果你已经熟悉上一小节的“完整路径过滤模式”,那么逐层过滤其实就是按路径层级由高到低依次执行完整路径过滤,每层过滤只有两种结果:要么直接得到「排除」作为最终结果,要么进入下一层级。得到「同步」结果的唯一方式就是执行完所有过滤层级。
以下是更多示例:
--exclude /foo 将排除所有根目录名为 foo 的文件或目录;
--exclude foo/ 将排除所有名为 foo 的目录;
对于 dir_name/.../.../... 这种多级目录来说,将按照目录层级匹配 dir_name 下的所有路径。如果某个文件的父目录被「排除」了,那即使加上了这个文件的 include 规则,也不会同步这个文件。如果想要同步这个文件就必须保证它的「所有父目录」都不要被排除。例如,下面的例子中 /some/path/this-file-will-not-be-synced 文件将不会被同步,因为它的父目录 some 已经被规则 --exclude '*' 所排除:
--include '/some/path/this-file-will-not-be-synced' \
--exclude '*'
一种解决方式是包含目录层级中的所有目录,也就是使用 --include '*/' 规则(需放在 --exclude '*' 规则的前面);另一种解决方式是为所有父目录增加 include 规则,例如:
--include '/some/' \
--include '/some/path/' \
--include '/some/path/this-file-will-be-synced' \
--exclude '*'
凡是 JuiceFS 支持的存储系统,都可以使用 sync 命令来同步数据。特别一提,如果其中一端是 JuiceFS 文件系统,那么建议优先使用无挂载点同步方式。
在两个存储系统之间同步数据,如果其中一方是 JuiceFS,推荐直接使用 jfs:// 协议头,而不是先挂载 JuiceFS,再访问本地目录。这样便能跳过挂载点,直接读取或写入数据,在大规模场景下,绕过 FUSE 挂载点将能节约资源开销以及提升数据同步性能。
myfs=redis://10.10.0.8:6379/1 juicefs sync s3://ABCDEFG:[email protected]/movies/ jfs://myfs/movies/
将对象存储的 movies 目录同步到 JuiceFS 文件系统:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行同步
juicefs sync s3://ABCDEFG:[email protected]/movies/ /mnt/jfs/movies/
将 JuiceFS 文件系统的 images 目录同步到对象存储:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行同步
juicefs sync /mnt/jfs/images/ s3://ABCDEFG:[email protected]/images/
将对象存储的全部数据同步到另一个对象存储桶:
juicefs sync s3://ABCDEFG:[email protected] oss://ABCDEFG:[email protected]
对于本地计算机上的目录之间拷贝文件,直接指定数据源与目标端的路径即可,比如将 /media/ 目录同步到 /backup/ 目录:
juicefs sync /media/ /backup/
如果需要在服务器之间同步,可以通过 SFTP/SSH 协议访问目标服务器,例如,将本地的 /media/ 目录同步到另一台服务器的 /backup/ 目录:
juicefs sync /media/ [email protected]:/backup/
# 指定密码(可选)
juicefs sync /media/ "username:password"@192.168.1.100:/backup/
当使用 SFTP/SSH 协议时,如果没有指定密码,执行 sync 任务时会提示输入密码。如果希望显式指定用户名和密码,则需要用半角引号把用户名和密码括起来,用户名和密码之间用半角冒号分隔。
juicefs sync 默认以增量同步方式工作,对于已存在的文件,仅在文件大小不一样时,才再次同步进行覆盖。在此基础上,还可以指定 --update,在源文件 mtime 更新时进行覆盖。如果你的场景对正确性有着极致要求,可以指定 --check-new 或 --check-all,来对两边的文件进行字节流比对,确保数据一致。
如需全量同步,即不论目标路径上是否存在相同的文件都重新同步,可以使用 --force-update 或 -f。例如,将对象存储的 movies 目录全量同步到 JuiceFS 文件系统:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行全量同步
juicefs sync --force-update s3://ABCDEFG:[email protected]/movies/ /mnt/jfs/movies/
默认情况下,sync 命令只同步文件对象以及包含文件对象的目录,空目录不会被同步。如需同步空目录,可以使用 --dirs 选项。
另外,在 local、SFTP、HDFS 等文件系统之间同步时,如需保持文件权限,可以使用 --perms 选项。
JuiceFS sync 在本地目录之间同步时,支持通过设置 --links 选项开启遇到符号链时同步其自身而不是其指向的对象的功能。同步后的符号链接指向的路径为源符号链接中存储的原始路径,无论该路径在同步前后是否可达都不会被转换。
另外需要注意的几个细节
mtime 不会被拷贝;--check-new 和 --perms 选项的行为在遇到符号链接时会被忽略。对于顺序写场景,一定要尽力保证每个文件的写入都有最少 4M(默认块大小)的缓冲区可用,如果写并发太高,或者缓冲区设置太小,都会导致原本高效的“大块写”退化为“碎片化缓慢写”。叠加上 JuiceFS 的碎片合并,可能会带来严重的写放大问题。
碎片合并情况可以通过 juicefs_compact_size_histogram_bytes 这个指标来观测。如果在 sync 期间碎片合并流量很高,说明需要进行相关调优。推荐实践和调优思路如下:
--threads),最好从默认值甚至更低的并发开始测起,谨慎增加到满意的速度;--buffer-size 起码要大于等于 --threads 参数的 4 倍,如果希望进一步提高写入并发,那么建议使用 8 或 12 倍的并发量来设置缓冲区。特别注意,根据写入目的地使用的协议头不同,设置缓冲区的方法也不同:
jfs:// 协议头的文件系统,客户端进程就是 juicefs sync 命令本身,此时 --buffer-size 参数需要追加到 juicefs sync 命令里;juicefs mount 命令,此时 --buffer-size 参数追加到该挂载点的 juicefs mount 命令里。--bwlimit 参数后,需要降低 --threads,避免过高的并发争抢带宽,产生类似的碎片化问题。每个对象存储的延迟和吞吐不尽相同,再次无法给出细致的调优计算流程,建议从更低的并发开始重新测试。模式匹配还可以实现删除存储系统中特定文件。诀窍是在本地创建一个空目录,将其作为 SRC。
示范如下,谨慎起见,所有示范均添加了 --dry --debug 选项来空运行,不会实际删除任何文件,而是打印执行计划。验证成功后,去掉这两个选项便能实际执行。
mkdir empty-dir
# 删除 mybucket 中所有对象,但保留后缀名为 .gz 的文件
juicefs sync ./empty-dir/ s3://mybucket.s3.us-east-2.amazonaws.com/ --match-full-path --delete-dst --exclude='**.gz' --include='*' --dry --debug
# 删除 mybucket 中所有后缀名为 .gz 的文件
juicefs sync ./empty-dir/ s3://mybucket.s3.us-east-2.amazonaws.com/ --match-full-path --delete-dst --include='**.gz' --exclude='*' --dry --debug
juicefs sync 默认启用 10 个线程执行同步任务,可以根据需要设置 --threads 选项调大或减少线程数。但也要注意,受限于有限的单机资源,一味增加 --threads 未必能持续提升同步速度,反而可能会导致 OOM。因此如果同步速度不足,还需要考虑:
SRC 和 DST 的存储系统是否已经达到了带宽上限,如果其中一个存储已经到达带宽限制,同步的瓶颈就在这里,增加并发度也不会继续提升同步速度;juicefs sync,通过 SSH 访问源数据,例如 juicefs sync root@src:/data /jfs/data;SRC 的存储系统的 list API 性能极佳,那么 juicefs sync 默认的单线程 list 可能会成为瓶颈。此时考虑启用并发 list 操作,在下一小节介绍。list {#concurrent-list}在 juicefs sync 命令的输出中,关注 Pending objects 的数量,如果该值持续为 0,说明消费速度大于生产,可以增大 --list-threads 来启用并发 list,以及用 --list-depth 来控制并发 list 的目录深度。
比方说,如果你面对的是 JuiceFS 所使用的对象存储服务,那么目录结构为 /<vol-name>/chunks/xxx/xxx/...,对于这样的目录结构,使用 --list-depth=2 来实现对于 /<vol-name>/chunks 的并发列表操作,是比较合适的选择。
在两个对象存储之间同步数据,就是从一端拉取数据再推送到另一端,同步的效率取决于客户端与云之间的带宽:
在同步大量数据时,单机带宽往往会被占满出现瓶颈,针对这种情况,考虑使用多机并发同步:
Manager 作为主控执行 sync 命令,通过 --worker 参数定义多个 Worker 节点(Manager 自身也参与同步),JuiceFS 会根据 Worker 的总数量,动态拆分同步任务并分发给各个节点并发执行,单位时间内能处理的数据量更大,总带宽也成倍增加。
在配置多机并发同步任务时,需要提前配置好 Manager 节点到 Worker 节点的 SSH 免密登录,如果 Worker 节点的 SSH 端口不是默认的 22,请在 Manager 节点的 ~/.ssh/config 设置其端口号。Manager 会将 JuiceFS 客户端程序分发到 Worker 节点,为避免兼容性问题,Manager 和 Worker 应使用相同类型和架构的操作系统。
举例说明,用分布式同步的方式进行对象存储间的数据同步:
juicefs sync --worker [email protected],[email protected] s3://ABCDEFG:[email protected] oss://ABCDEFG:[email protected]
运行这个命令后,当前节点与两个 Worker 节点 [email protected] 和 [email protected] 将共同分担数据同步任务。
上方的示范中是对象存储 → 对象存储的数据同步,如果需要基于 FUSE 挂载点做数据同步,那么可以在所有节点挂载 JuiceFS,然后用类似下方的命令来进行分布式同步:
# 源文件系统需要更好的读性能,因此增大 buffer-size
parallel-ssh -h hosts.txt -i juicefs mount -d redis://10.10.0.8:6379/1 /jfs-src --buffer-size=1024 --cache-size=0
# 目标文件系统需要更好的写性能
parallel-ssh -h hosts.txt -i juicefs mount -d redis://10.10.0.8:6379/1 /jfs-dst --buffer-size=1024 --cache-size=0 --max-uploads=50
# 挂载完毕后,用下方命令拷贝数据
juicefs sync --worker host1,host2 /jfs-src /jfs-dst
简单来说,用 sync 命令拷贝大文件时,进度条可能会迟迟不更新,如果担心命令未能正常工作,可以用其他手段对传输情况进行观测。
sync 假定了使用场景是拷贝大量文件,因此进度的计算也是针对多个文件设计的:每一个文件完成了拷贝后,进度会更新一次。因此如果面对的都是大文件,单个文件的拷贝速度太慢,进度条就会变化缓慢,或者呈现卡死的状态。如果目的地端协议不支持 multipart upload(比如 file、sftp、jfs、gluster 协议头),单个文件会单线程进行复制,无法对大文件进行并发上传。可想而知,大文件 + 不支持 multipart upload,将会更容易出现进度条卡死的情况。
如果你观察到进度不再变化,参考下列手段进行观测和排查:
为 juicefs sync 添加 --verbose 或 --debug 参数,打印 debug 日志;
如果数据同步的两方有任何一个是 JuiceFS 宿主机挂载点:
juicefs stats 快速查看文件系统是否正在写入(或读出);/var/log/juicefs.log),观察是否有慢请求或者超时错误日志。如果数据同步的目的地是宿主机本地盘,可以直接观察目录下是否存在名称中带 .jfs.xxx.tmp.xxx 后缀的临时文件,sync 过程中会将传输结果写入临时文件,待传输完成后进行重命名,才完成最终的写入。观察临时文件大小是否变化,就能确定当前的写入状况;
如果传输目的地均为对象存储,可以通过类似 nethogs 的命令,查看出入网流量,来判断传输进展;
以上手段均未能获得有效排查信息,则需要对 sync 进程采集 goroutine,结合源码分析排查:
# 将 <PID> 替换为卡死的 sync 命令的 PID,记下 pprof 监听端口
lsof -p <PID> | grep TCP | grep LISTEN
# pprof 端口一般是 6061,如果已经被占用,则需要递增,需要根据实际情况修改
curl -s localhost:6061/debug/pprof/goroutine?debug=1
如果需要监控 sync 命令的进度,可以使用 --metrics 参数指定监控指标地址,默认为 127.0.0.1:9567。用 Prometheus 抓取这些指标,就能进行监控。
异地容灾备份针对的是文件本身,因此应将 JuiceFS 中存储的文件同步到其他的对象存储,例如,将 JuiceFS 文件系统中的文件同步到对象存储:
# 挂载 JuiceFS
juicefs mount -d redis://10.10.0.8:6379/1 /mnt/jfs
# 执行同步
juicefs sync /mnt/jfs/ s3://ABCDEFG:[email protected]/
与面向文件本身的容灾备份不同,建立 JuiceFS 数据副本的目的是为 JuiceFS 的数据存储建立一个内容和结构完全相同的镜像,当使用中的对象存储发生了故障,可以通过修改配置切换到数据副本继续工作。需要注意这里仅复制了 JuiceFS 文件系统的数据,并没有复制元数据,元数据引擎的数据备份依然需要。
这需要直接操作 JuiceFS 底层的对象存储,将它与目标对象存储之间进行同步。例如,要把对象存储作为 JuiceFS 文件系统的数据副本:
juicefs sync cos://ABCDEFG:[email protected] oss://ABCDEFG:[email protected]
通过 POSIX 方式访问 JuiceFS 时,会有频繁的元数据访问,跨区域访问元数据的延迟比较高会影响访问性能。如果需要跨区域传输大量小文件,这时元数据服务延迟高对性能影响更严重。
在这种情况下,可以通过跨区访问部署在源区域的 S3 网关来提升性能,它可以大幅减少跨区域访问的请求数。
阅读「S3 网关」学习如何使用和部署 S3 网关。