深度学习使用的算法有哪些? 有哪些深度学习算法可以用gpu实现
深度学习使用的算法有哪些?
先列举一下在深度学习中,我们常见的优化算法有哪些:
最基本的如梯度下降(Gradient Descent)—— GD
然后还有一些GD的变体:
随机梯度下降法(Stochastic Gradient Descent)——SGD
小批量梯度下降——mini-batch GD
动量梯度下降——Momentum
均方根算法(root mean square prop) ——RMSprop
自适应矩估计(Adaptive Moment Estimation)——Adam
有哪些深度学习算法可以用gpu实现
GPU是显示卡的一部分,而不是深度学习算法的一部分,叫做图形处理器。
显示卡的基本作用是控制电脑的图形输出,安装在电脑主板的扩展槽中,或者集成在主板上,工作在中央处理器和显示器之间。
显示卡主要包括图像处理器、显存、数模转换器、AGP总线接口等几个部分,数据流从中央处理器流出后,要把中央处理器传来的数据送到图像处理器中进行处理,把芯片处理完的数据送入显存,把显存读取出数据送到数模转换器进行数据转换的工作,从数模转换器进入显示器。ß显存是显示卡的核心部件,存放显示芯片处理后的数据,显存越大,显示卡支持的最大分辨率越大。显存的容量至少是“水平分辨率*垂直分辨率*log2颜色数/8”。
希望我能帮助你解疑释惑。
人工智能需要什么基础
人工智能主要由三个板块组成,分别为算法、算力与数据。 算法层面,目前主流的算法为深度学习,常见的算法包括卷积神经网络、循环神经网络以及生成对抗网络 算力层面,主要包含AI计算架构以及各种AI芯片 数据层面,包含数据采集、数据清洗、数据标注等。 以上这些内容构成AI行业的基础。
深度学习算法的哪些方面比较有趣
根据2012-2017年被引用最多的深度学习论文来看,深度学习目前的研究方向如下
1、基础性的理解和概括
2、优化训练
3、卷积神经网络模型研究
4、图像:分割/目标检测
5、视频
6、自然语言处理
7、强化学习/机器人
8、语音/其他领域