1. tf.Variable()

W = tf.Variable(<initial-value>, name=<optional-name>)
  • 1

用于生成一个初始值为​​initial-value​​的变量。必须指定初始化值

2.tf.get_variable()

None, dtype=tf.float32, initializer=None,
regularizer=None, trainable=True, collections=None)
  • 1
  • 2

获取已存在的变量(要求不仅名字,而且初始化方法等各个参数都一样),如果不存在,就新建一个。 
可以用各种初始化方法,不用明确指定值。

3.区别

推荐使用​​tf.get_variable()​​, 因为:

1. 初始化更方便

比如用xavier_initializer:

W = tf.get_variable("W", shape=[784, 256],
initializer=tf.contrib.layers.xavier_initializer())
  • 1
  • 2

2. 方便共享变量

因为​​tf.get_variable()​​ 会检查当前命名空间下是否存在同样name的变量,可以方便共享变量。而​​tf.Variable​​需要注意的是​​tf.get_variable()​​ 要配合​​reuse​​和​​tf.variable_scope()​


4. 举个栗子

4.1 首先介绍一下tf.variable_scope().

如果已经存在的变量没有设置为共享变量,TensorFlow 运行到第二个拥有相同名字的变量的时候,就会报错。为了解决这个问题,TensorFlow 提出了 tf.variable_scope 函数:它的主要作用是,在一个作用域 scope 内共享一些变量,举个简单的栗子:

with tf.variable_scope("foo"):
v = tf.get_variable("v", [1]) #v.name == "foo/v:0"

简单来说就是给变量名前再加了个变量空间名。

4.2 对比

接下来看看怎么用​​tf.get_variable()​​实现共享变量:

with tf.variable_scope("one"):
a = tf.get_variable("v", [1]) #a.name == "one/v:0"
with tf.variable_scope("one"):
b = tf.get_variable("v", [1]) #创建两个名字一样的变量会报错 ValueError: Variable one/v already exists
with tf.variable_scope("one", reuse = True): #注意reuse的作用。
c = tf.get_variable("v", [1]) #c.name == "one/v:0" 成功共享,因为设置了reuse

assert a==c #Assertion is true, they refer to the same object.

然后看看如果用​​tf.Variable()​

with tf.variable_scope("two"):
d = tf.get_variable("v", [1]) #d.name == "two/v:0"
e = tf.Variable(1, name = "v", expected_shape = [1]) #e.name == "two/v_1:0"

assert d==e #AssertionError: they are different objects

可以看到,同样的命名空间(‘two’)和名字(v),但是d和e的值却不一样。

Reference: 
1. ​​​https://stackoverflow.com/questions/37098546/difference-between-variable-and-get-variable-in-tensorflow​​​ 
2. ​​​https://www.tensorflow.org/versions/r1.2/api_docs/python/tf/variable_scope​​​