人工智能算法综述(一).pdf下载

weixin_39821051 2023-03-19 10:30:11
⼈⼯智能算法综述(⼀) ⼈⼯智能算法综述(⼀)   "那⼀些被认作常识的东西,是不是只是时代的附属品?从整个历史的长河去看待,也许是⼀些莫名其妙或者残忍⾄极的怪事⽽已"                                                       2017-2018 这两年因为⼀些爆炸式的AI应⽤,导致⼜把公众的视野转向这个⽅向发展,⾃图灵提出"图灵测试"之后,AI已 经爆发了两次热潮,相应的也跌⼊了两次低⾕,⽬前看应该是进⼊了第三次的热潮,但是之后是迎来"奇点",还是第三次低 ⾕,尚不可知。   强⼈⼯智能(也就是通⽤⼈⼯智能),或者说机器的⾃我意识,⾃然是⼀个终极⽬标,但是当我们朝着这个⽬标⾏进的 时候,总会获得⼀些⼩奖励,这些⼩奖励就是现在的弱⼈⼯智能,⼀些很实⽤的算法理论跟应⽤,虽然落地还有⼀些难度, 但是整体趋于成熟,商⽤的应⽤已经开始遍地开花,短时间内将会引发全⾏业AI+,所有业务都会被AI刷新⼀遍,当然有⼈ 会说⼀堆职业要消亡了,⼜有很多⼈要下岗了。但是也同样会创造出更多的职业与岗位。⽽且⾃有⼈类以来,这件事我们也 ⼲过不少次了(前三次⼯业⾰命),完全不⽤惊慌,历史的车轮滚滚⽽⾏,总会丢下⼀部分⼈,⼜载上另外⼀部分⼈,时代 就是逆⽔⾏⾈,不进则退,总要保持学习,保持上进,保持饥渴。如果时代抛弃了你连⼀句再见也不说,那你就得赶紧加快 脚步上去揍它⼀顿。 --------------(这看上去像⼀根线)--------------------   闲话少说,为各位呈上各类流弊的算法简介(通俗易懂的说明,具体细节不表),可能会有些地⽅讲的不对,希望能得 到⼀点友情提醒,我会⽴马修正。 CNN:卷积神经⽹络   我在上⼀篇关于 tensorflow(⾕歌开源AI框架)的踩坑⽇志有说过⼀点关于卷积神经⽹络的基本原理。   就是卷积层+N层神经⽹络BP层(也叫全链接层) 关于 BP的原理我之前有写过⼀篇了,翻回去看看就有了。   那卷积层具体是什么呢?很像是⼀个滤镜层,我们知道实际上图像是由每个像素点组成的矩阵,然后每个像素点⼜可以 由 RGB 3原⾊的数值表⽰范围是(0-255) 如果做⼀次灰度处理,那么每个像素点就是由0-255的灰度数值表⽰。那图像就 等同于 ⼀个 2维的 数字矩阵。 当然如果颜⾊想保留的话,不做灰度处理的话,RGB就等同于3个不同的矩阵,长宽是⼀样 的。⾥⾯的数值不同⽽已。   那我们回到卷积层,就是拿⼀个卷积核在这个矩阵上滚⼀遍(矩阵相乘)得出⼀个新的矩阵。卷积核也是⼀个⼩的2维 矩阵,不同数值的卷积核,可以对这张图⽚提取的信息不同,这就是图像的特征, ⽐如说把⼀个专门提取竖线的卷积核在原 始图⽚上滚⼀遍,就能获得⼀个全部都是竖线的特征图。如果我们要做⼀个⽵⼦的识别器,肯定要⽤这个特征了。但是如果 要做⼀个篮球的识别器,就⽤不上了,⽤或者不⽤,这是由BP层决定的。但是提取的⼯作还是要做的,但是怎么决定卷积核 应该是由什么数值构成呢?随机! 因为这个算法⽐较通⽤,可以做成识别各种东西,所以卷积核应该是任意特征都能提取 的,那只要⽣成1000,1W ,或者1亿个卷积核,每个都在这个图像上滚⼀遍,就能提取1亿种特征了。如果最后BP层只⽤到 其中⼀个特征就能识别⽵⼦或者篮球。那岂不是⾮常浪费,所以卷积核的数量要根据识别复杂度⽽定。否则计算量很可怕。   当然CNN⾥⾯还有很多细节,⽐如池化层,归⼀化,dropout 。 池化层也有⼏种不同的⽅法,如果是求均值就是mean pooling,求最⼤值就是max pooling 池化就是降维⽐较好理解⼀点吧,为了减少计算量。 归⼀化(Normalization,也叫规范化)是为了让数据在⽹络中传输的时候不要太⼤,或者太⼩,或者太稀疏。   早前的⼀些归⼀化⽅法 看这篇 《归⼀化⽅法总结》 后来google 有⼀篇论⽂讲了另外⼀种⽅式 Batch Normalization 听说效果不错。 dropout是指随机的把⼀些特征失效掉来训练这个⽹络,这样泛化能⼒⽐较强。我⾃⼰实践过⼀次,但是感觉训练过程变得更 久了,波动更⼤了。慎⽤。 全链接层的梯度下降⽅法也有很多种如: 这⾥列了⼀些tensorflow 内置的⼀些梯度下降优化 器 GradientDescentOptimizer,AdagradOptimizer,MomentumOptimizer,AdamOptimizer CNN的算法⾥⾯有很多参数要调,⽐如说⽹络的层数,初始学习率,dropout的概率等等,这类统称为超参数 有⽂章说现在很多CNN的⼯作都是很枯燥的调参数,因为训练⼀次周期很长,超参数的调整⼜跟具体的要识别的东西相关性 很强,⽐如说训练10种类别,跟训练1000种类别 , 相关下载链接:https://download.csdn.net/download/qq_43934844/87505081?utm_source=bbsseo
...全文
18 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
⼈⼯智能算法综述(⼀) ⼈⼯智能算法综述(⼀)   "那⼀些被认作常识的东西,是不是只是时代的附属品?从整个历史的长河去看待,也许是⼀些莫名其妙或者残忍⾄极的怪事⽽已"                                                       2017-2018 这两年因为⼀些爆炸式的AI应⽤,导致⼜把公众的视野转向这个⽅向发展,⾃图灵提出"图灵测试"之后,AI已 经爆发了两次热潮,相应的也跌⼊了两次低⾕,⽬前看应该是进⼊了第三次的热潮,但是之后是迎来"奇点",还是第三次低 ⾕,尚不可知。   强⼈⼯智能(也就是通⽤⼈⼯智能),或者说机器的⾃我意识,⾃然是⼀个终极⽬标,但是当我们朝着这个⽬标⾏进的 时候,总会获得⼀些⼩奖励,这些⼩奖励就是现在的弱⼈⼯智能,⼀些很实⽤的算法理论跟应⽤,虽然落地还有⼀些难度, 但是整体趋于成熟,商⽤的应⽤已经开始遍地开花,短时间内将会引发全⾏业AI+,所有业务都会被AI刷新⼀遍,当然有⼈ 会说⼀堆职业要消亡了,⼜有很多⼈要下岗了。但是也同样会创造出更多的职业与岗位。⽽且⾃有⼈类以来,这件事我们也 ⼲过不少次了(前三次⼯业⾰命),完全不⽤惊慌,历史的车轮滚滚⽽⾏,总会丢下⼀部分⼈,⼜载上另外⼀部分⼈,时代 就是逆⽔⾏⾈,不进则退,总要保持学习,保持上进,保持饥渴。如果时代抛弃了你连⼀句再见也不说,那你就得赶紧加快 脚步上去揍它⼀顿。 --------------(这看上去像⼀根线)--------------------   闲话少说,为各位呈上各类流弊的算法简介(通俗易懂的说明,具体细节不表),可能会有些地⽅讲的不对,希望能得 到⼀点友情提醒,我会⽴马修正。 CNN:卷积神经⽹络   我在上⼀篇关于 tensorflow(⾕歌开源AI框架)的踩坑⽇志有说过⼀点关于卷积神经⽹络的基本原理。   就是卷积层+N层神经⽹络BP层(也叫全链接层) 关于 BP的原理我之前有写过⼀篇了,翻回去看看就有了。   那卷积层具体是什么呢?很像是⼀个滤镜层,我们知道实际上图像是由每个像素点组成的矩阵,然后每个像素点⼜可以 由 RGB 3原⾊的数值表⽰范围是(0-255) 如果做⼀次灰度处理,那么每个像素点就是由0-255的灰度数值表⽰。那图像就 等同于 ⼀个 2维的 数字矩阵。 当然如果颜⾊想保留的话,不做灰度处理的话,RGB就等同于3个不同的矩阵,长宽是⼀样 的。⾥⾯的数值不同⽽已。   那我们回到卷积层,就是拿⼀个卷积核在这个矩阵上滚⼀遍(矩阵相乘)得出⼀个新的矩阵。卷积核也是⼀个⼩的2维 矩阵,不同数值的卷积核,可以对这张图⽚提取的信息不同,这就是图像的特征, ⽐如说把⼀个专门提取竖线的卷积核在原 始图⽚上滚⼀遍,就能获得⼀个全部都是竖线的特征图。如果我们要做⼀个⽵⼦的识别器,肯定要⽤这个特征了。但是如果 要做⼀个篮球的识别器,就⽤不上了,⽤或者不⽤,这是由BP层决定的。但是提取的⼯作还是要做的,但是怎么决定卷积核 应该是由什么数值构成呢?随机! 因为这个算法⽐较通⽤,可以做成识别各种东西,所以卷积核应该是任意特征都能提取 的,那只要⽣成1000,1W ,或者1亿个卷积核,每个都在这个图像上滚⼀遍,就能提取1亿种特征了。如果最后BP层只⽤到 其中⼀个特征就能识别⽵⼦或者篮球。那岂不是⾮常浪费,所以卷积核的数量要根据识别复杂度⽽定。否则计算量很可怕。   当然CNN⾥⾯还有很多细节,⽐如池化层,归⼀化,dropout 。 池化层也有⼏种不同的⽅法,如果是求均值就是mean pooling,求最⼤值就是max pooling 池化就是降维⽐较好理解⼀点吧,为了减少计算量。 归⼀化(Normalization,也叫规范化)是为了让数据在⽹络中传输的时候不要太⼤,或者太⼩,或者太稀疏。   早前的⼀些归⼀化⽅法 看这篇 《归⼀化⽅法总结》 后来google 有⼀篇论⽂讲了另外⼀种⽅式 Batch Normalization 听说效果不错。 dropout是指随机的把⼀些特征失效掉来训练这个⽹络,这样泛化能⼒⽐较强。我⾃⼰实践过⼀次,但是感觉训练过程变得更 久了,波动更⼤了。慎⽤。 全链接层的梯度下降⽅法也有很多种如: 这⾥列了⼀些tensorflow 内置的⼀些梯度下降优化 器 GradientDescentOptimizer,AdagradOptimizer,MomentumOptimizer,AdamOptimizer CNN的算法⾥⾯有很多参数要调,⽐如说⽹络的层数,初始学习率,dropout的概率等等,这类统称为超参数 有⽂章说现在很多CNN的⼯作都是很枯燥的调参数,因为训练⼀次周期很长,超参数的调整⼜跟具体的要识别的东西相关性 很强,⽐如说训练10种类别,跟训练1000种类别

13,103

社区成员

发帖
与我相关
我的任务
社区描述
CSDN 下载资源悬赏专区
其他 技术论坛(原bbs)
社区管理员
  • 下载资源悬赏专区社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧