首页
示例页面
首页
关于
更多
联系
博客
主页章节
一点点想法
Search
1
DDPG算法在羊犬博弈中的简要应用
873 阅读
2
辐射实验数据处理一:通过有限点绘制曲面图
579 阅读
3
遗传算法学习笔记一:重新发明简易轮子
547 阅读
4
数值计算一——插值、拟合与线性方程组
477 阅读
5
基于UC3842的Boost升压电路
452 阅读
未分类
感叹
TEC
登录
Search
标签搜索
PYTHON
数值计算
等离子体诊断
换热器设计
核工程
机器学习
深度学习
博弈
tensorflow
量子力学
遗传算法
DeepLearning
粒子模拟
电磁场
Modelica
等离子体
磁约束聚变
流浪地球
重元素聚变
DMCXE
累计撰写
33
篇文章
累计收到
40
条评论
首页
栏目
未分类
感叹
TEC
页面
示例页面
首页
关于
联系
博客
主页章节
一点点想法
搜索到
1
篇与
DeepLearning
的结果
2022-03-16
DeepLearning学习笔记之一:重新认识
第一次接触DL还是之前提过的DDPG。但实际上就如同学习最优策略的数学理论一样,对那些泛函内容只能照葫芦画瓢般的模仿。所以还是决定从头认识一下他,看看他到底离我多远,或者离我多近。这一切的前提是,学过高数、线性代数与概率论,以及一些计算机语言和思维。这些大一就已经经历过了。要理解DeepLearning,我们不妨从一个线性回归说起——这是初中的知识,在一些点之间划一条直线。呃呃,我又发现我现在还是打不了公式代码,我再也不用这个数据库了!那我先介绍几个基本的语言实现。由于第一次接触DL使用的是Tensorflow 1.X——一个开源的DL框架,自然的我换到MacOs平台后第一个想要验证的就是它。巧合的是Tensorflos以及Apple Inc.已经为M1提供了原生ARM般程序与基于METAL的GPU加速,在经历一番艰难的Tensorflow 1.X->2.X代码修改后,老程序还是跑起来了。首先介绍第一个重要的代码实现:它能够算出任意可导函数的导数。(还在研究争取造轮子)with tf.GradientTape() as t: y = 2*x*x x_grad = t.gradient(y,x)之后是随机梯度下降算法SGD暂时看不懂没关系,等我睡一觉起来把公式模块弄出来就好了,困了,晚安!手写实现为:def sgd(params,grads,lr,batch_size): for param, grads in zip(params,grads):#zip使得w和b拆分成列 param.assign_sub(lr*grads/batch_size)#这里就是SGD算法,.assign_sub表示将原来存在的param元素减去()内 API实现一行即可:trainer = tf.keras.optimizers.SGD(learning_rate=0.03)随便查个图
2022年03月16日
153 阅读
0 评论
0 点赞