字体:大 中 小
护眼
关灯
上一章
目录
下一页
分卷阅读41 (第1/2页)
慨。【……】系统忽然冒出nongnong的危机意识,【那个,宿主其实我也很有用的!要不让我开放全民好感度涨幅提示!对你有敌意的肯定是负数,到时候还没靠近你就能发现……】“不,太吵。”徐静怡很果决摇头。“这位同学?”站在台上的森田教授很睿智地看着她,语态很温和,“刚刚我的说法是有什么问题吗?你似乎对此有些不同的见解!”徐静怡一懵。系统,【糟糕了宿主!好像这位老大爷误会你刚刚摇头了!你别慌,他正在讲RNN和与传统神经网络区别!】——原来已经讲到处理序列数据的循环神经网络。这个用大白话来形容,就是机器人处理问题时的逻辑思维能力。举个例子比如“我实在是太冷了,准备去XXX”,根据前面的输入判断“XXX”很大可能就是“穿衣服”,这就是序列数据。徐静怡快速扫了一眼黑板,“tanh和sigmoid激活函数的RNN如果遭遇梯度消失要如何是好?”徐静怡起身,慢条斯理地开口:“tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘cao作。而向量函数对向量求导结果为一个Jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用ReLU来替代tanh和sigmoid激活函数,或者用LSTM或GRU结构。”森□□授调皮的眨眨眼:“回答得相当标准。你对智能编程有所研究对吗?”徐静怡点点头。旁边忽然有一个留着长刘海的女生显然是迷妹,她再三打量徐静怡,忽然低呼:“啊,难道,难道你就是直播间的超级大科学家吗?!”这名字挂在直播间不觉得,突然被人喊出来有点中二。徐静怡:“……”微微额首。这里不少学生都看过那个直播,顿时引起窃窃私语,不少人对着徐静怡小声地指点,有激动的,也有不屑的。森田教授讶异地看向助教,助教在阶梯上询问了几句后跑到森田教授那低声说。森田教授眼前一亮,看向徐静怡,笑了笑:“如何设置网络的层数rnn_yers来增强神经网络的学习能力?”“用MultiRNNCell封装。给multicell进行初始化状态,设为0,即用multi_cell.zero_state来实现。传入一个batch_size参数,会生成rnn_yers层的(batch_size,hidden_size)初始状态。”徐静怡说出标准答案后,顿了顿,开口:“但我有另外的处理方式,只是遇到了困境。”“哦?怎么说?”森田教授感兴趣地问道。徐静怡将手机拿出来,然后扣动了一下前置装置,拉开弹射出来的虚拟框。“哇哦~~”不少学生发出惊呼,好些人偷偷将手机拿出来拍摄,还有人悄声嘀咕,“这就是剪辑里面的虚拟屏幕吗?”“牛逼啊,第一次看见。”……有人说好话自然也有人说酸话,“什么鬼,明明是来听讲座的。浪费时间。”“不过就是玩些花头罢了,有什么了不起的。”“文
上一章
目录
下一页