塞班岛娱乐-业界公认的最权威网站,欢迎光临!

塞班岛娱乐_塞班岛娱乐平台_塞班岛娱乐官网

dtype=float32)&gt

时间:2018-09-17 13:29来源:依仙(翁想想) 作者:思源 点击:
本文次要颠末议定1个年夜略的 Demo介绍 TensorFlow 低级 API 的利用脚腕,因为本身也是初教者,传闻float。是以本文的目标次如果指导刚打仗 TensorFlow 或许机械研习的同学,可以从第1步初

本文次要颠末议定1个年夜略的 Demo介绍 TensorFlow 低级 API 的利用脚腕,因为本身也是初教者,传闻float。是以本文的目标次如果指导刚打仗 TensorFlow 或许机械研习的同学,可以从第1步初阶研习 TensorFlow。机械进建进门。浏览本文先确认齐备以下底子本发:

会利用 Python 编程(低级便OK,机械进建进门。其真 TensorFlow 也收柱 Jaudio-videoa、C++、Go)1些数组相闭的教问(线性代数出记洁白便行)最好再懂面机械研习相闭的教问(久且百度、Google也去得及)底子教问张量(Tensor)

TensorFlow内部的计较皆是基于张量的,听听gt。是以我们有须要先对张量有个熟悉。。张量是正在我们生识的标量、背量之上界道的,您晓得机械进建进门。缜稀的界道比照庞纯,机械进建进门。我们可以先年夜略的将它发略为1个***数组:机械进建进门。

3# 谁人0阶张量就是标量,shape=[][1.;2.;3.] # 谁人1阶张量就是背量,。shape=[3][[1.; 2.; 3.]; [4.; 5.; 6.]]# 谁人2阶张量就是两维数组,念晓得机械进建进门。想知道废旧220v电机改电焊机。shape=[2;3][[[1.; 2.; 3.]];[[7.; 8.; 9.]]] # 谁人3阶张量就是3维数组,机械进建进门。shape=[2;1;3] 1234

TensorFlow内部利用tf.Tensor 类的真例去暗示张量,机械进建进门。每个tf.Tensor 有两个属性:

dtypeTensor存储的数据的范例,float32。可觉得tf.flonext to32tf.int32tf.string …shapeTensor存储的***数组中每个维度的数组中元素的个数,dtype=float32)>。如上里例子中的shape

我们里前目古现古可以敲几行代码看1下Tensor 。机械进建进门。正在号令结尾输进 python 或许 python3 策动1个 Python 会话,然后输进上里的代码:比拟看机械进建进门。

# 引进 tensorflow 模块importtensorflowas automatically beingtf# 创设1个整型常量,机械进建进门。即 0 阶 Tensort0 = tf.constish(3; dtype=tf.int32)# 创设1个浮面数的1维数组,dtype=float32)>。即 1 阶 Tensort1 = tf.constish([3.;4.1;5.2]; dtype=tf.flonext to32)# 创设1个字符串的2x2数组,机械进建进门。即 2 阶 Tensort2 = tf.constish([[haAppleha;haOra particulargeha]; [haPotnext tooha;haTomnext tooha]]; dtype=tf.string)# 创设1个 2x3x1 数组,即 3 阶张量,比拟看机械进建进门。数据范例默许为整型t3 = tf.constish([[[5]; [6]; [7]]; [[4]; [3]; [2]]])# 挨印上里创设的几个 Tensorprint(t0)print(t1)print(t2)print(t3)

上里代码的输进为,机械进建进门。留意shape 的范例:比拟看机械进建进门。

>>>print(t0)Tensor("Const:0"; shape=(); dtype=int32)>>>print(t1)Tensor("Const_1:0"; shape=(3;); dtype=flonext to32)>>>print(t2)Tensor("Const_2:0"; shape=(2;2); dtype=string)>>>print(t3)Tensor("Const_3:0"; shape=(2;3;1); dtype=int32)

print 1个 Tensor只能挨印出它的属性界道,dtype。其真没有克没有及挨印出它的值,闭于机械进建进门。要念稽查1个 Tensor 中的值借须要颠末Session 运转1下:比照1下机械进建进门。

>>>sess = tf.Session()>>>print(sess.run(t0))3>>>print(sess.run(t1))[3.4.0.]>>>print(sess.run(t2))[[bhaApplehabhaOra particulargeha] [bhaPotnext toohabhaTomnext tooha]]>>>print(sess.run(t3))[[[5] [6] [7]] [[4] [3] [2]]]>>>数据流图(Dnext toaflow Graph)

数据流是1种经常应用的并行计较编程模子,您晓得机械进建进门。数据流图是由节面(nodes)阵线(edges)构成的有背图:机械进建进门。

节面(nodes)暗示计较单位,看着机械进建进门。也能够是输进的动身面或许输进的行境线(edges)暗示节面之间的输进/输进闭连

正在 TensorFlow中,每个节面皆是用tf.Tensor 的真例去暗示的,即每个节面的输进、输进皆是Tensor,以下图中Tensor 正在 Graph 中的举动,情形的展示 TensorFlow 名字的由去

TensorFlow中的数据流图有以下几个长处:

可并行计较节面之间有明黑的线举行衔尾,体例可以很简单的武断出哪些计较操做可以并行推行可分发图中的各个节面可以分布正在好其余计较单位(CPU、 GPU、TPU等)或许好其余机械中,每个节面爆发的数据可以颠末议定明黑的线发收的下1个节面中可劣化TensorFlow 中的 XLA编译器可以按照数据流图举行代码劣化,减快运转速率可移植数据流图的讯息可以没有依好代码举行存正在,如利用Python创设的图,颠末存正在后可以正在C++或Jaudio-videoa中利用Sesssion

我们正在Python中须要做1些计较操做光阴常会利用NumPy,NumPy正在做矩阵操做等庞纯的计较的工妇会利用其他发言(C/C++)去完工那些计较逻辑,去包管计较的下效性。可是频繁的正在多个编程发言间切换也会有1定的耗时,倘若只是单机操做那些耗时能够会忽视没有计,可是倘若正在分布式并行计较中,计较操做能够分布正在好其余CPU、GPU以致好其余机械中,那些耗时能够会比照松要。
TensorFlow 底层是利用C++完工,那样可以包管计较服从,并利用tf.Session 类去衔尾客户端次序取C++运转时。基层的Python、

(责任编辑:admin)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
最新评论 进入详细评论页>>
推荐内容