TensorFlow深度学习并发训练 TensorFlow 2.0 分布式训练 单机多卡训练: MirroredStrategy tf.distribute.MirroredStrategy 是一种简洁且高性能的,数据并行的同步式分布式策略,主要支持多个 GPU 在同一台主机上训练。使用这种策略时,我们只需实例化一个 MirroredStrategy 策略: strategy = tf.distribute.MirroredStrategy() 并将模型构建的代码放入 strategy.scope() 的上下文环境中: with strategy.scope(): # 模型构建代码 小