referrence: 莫烦视频

先介绍几个函数

1.tf.cast()

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

英文解释:

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

也就是说cast的直译,类似于映射,映射到一个你制定的类型。

2.tf.argmax 原型:

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

含义:返回最大值所在的坐标。(谁给翻译下最后一句???)

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

ps:谁给解释下axis最后一句话?

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

例子:

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

 3.tf.reduce_mean() 原型:

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

含义:一句话来说就是对制定的reduction_index进行均值计算。

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

注意,reduction_indices为0时,是算的不同的[]的同一个位置上的均值

为1是是算的[]内的均值。

 import numpy as np
import tensorflow as tf
tt = tf.reduce_mean([1,2,3,4])
ttt = tf.reduce_mean([[1.0,2,3,4,5],[6,7,8,9,10],[1,1,1,1,1]],reduction_indices=[1])
t = tf.reduce_mean([[1.0,2,3,4,5],[6,7,8,9,10],[1,1,1,1,1]],reduction_indices=[0])
sess = tf.Session()
sess.run(tf.initialize_all_variables()) print (sess.run(t))
print (sess.run(tt))

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

tf.equal:

含义比较两个tensor的值,如果在一个下表下一样,那么返回的tensor在这个下表上就为true.这个函数一般可以与cast在一起去(cast到float32上)计算一些准确率

TFboy养成记 tf.cast,tf.argmax,tf.reduce_sum-LMLPHP

05-07 15:49