第655章【神经网络深度学习】(1 / 2)

一小时后,方鸿再次来到了量化资本总部。

陈宇的助理前来接待他,领着他向着招待室走去,并说道“方先生,陈总正在技术部开会,您稍等,我去知会他一声。”

方鸿如是说道“不用,直接带我去他的会议室,我去旁听一下。”

闻言,陈宇的助理拿出手机给他发了个信息,很快陈宇就回消息,这位助理转而看向方鸿微笑道“方先生,您这边请。”

不一会儿,方鸿便来到了陈宇所在的会议室,在场有三十多号人,看到走进来一个陌生的青年,大家都颇为好奇的打量了一下。

他们发现方鸿跟自己老板陈宇的年龄差不多,但不同的是,他们从方鸿身上感受到了一种在这個年龄阶段所没有的上位者气场,这让大家意识到这个陌生青年不是一般人。

此刻,陈宇看到方鸿与之相视点头致意,后者微微一笑便在会议室里默默地找了个位置坐下旁听。

陈宇收回目光,转而环视一众与会者继续说道“对于人工智能的基本实现思路,机器学习的过程,简单的说就是电脑到底是如何自我学习的。”

“因为计算机的一切运算,其基础都是数学运算,所以任何机器学习的思路,归根结底就是把一个实际问题转化为数学问题。为了让计算机能够预测或者识别什么东西,就需要先构造一个数学函数,这个数学函数就叫预测函数。”

一般人可能很难想象,量化资本作为一家多元金融公司,在大多数股民眼里甚至就是一家非银金融投资公司,掌门人也是做投资交易的,却在公司里谈论这些内容。

不过方鸿是很淡定,这其实很正常,华尔街就是汇集了一群顶尖的数学家、物理学家。

此刻,陈宇转而看向会议屏幕道“比如预测一个吃饱饭的函数,就可以描述成吃饱n碗饭,这个预测计算到底准不准一个人吃几碗饭和吃饱之间的关系有是什么是吃一碗还是三碗才能吃的饱”

“这就需要实际去试一下,如果预测是两碗饭吃饱,但实际要吃三碗饭才饱,其中一碗的误差就是损失,描述这个损失的函数即3n1,这就是损失函数。”

“机器学习就是通过不断尝试让这个误差达到最小的过程,寻找损失最小值的方法通常是梯度下降,一旦我们找到了最小误差,就会发现当n3的时候误差最小,也就是机器学习找到了真实的规律,就成功解决问题了。”

陈宇再度看向众人道“所以,机器学习就是在寻找数据的规律,大部分时候,它的本质就是把数据投射到坐标系里,然后用计算机通过数学方法画一条线区分或者模拟这些数据的过程。”

“不同的机器学习方法,就是在使用不同的数学模型来投射数据和画线,从上世纪到现在,不同的流派找到了不同的方法,擅长于解决不同的问题,影响比较巨大的有这么几种线性回归和逻辑回归、k近邻、决策树、支持向量机、贝叶斯分类以及感知机等。”

方鸿坐在一边旁听默默不言,他也算是计算机科学领域的半个业内人士,更有前世记忆先知先觉的优势,此刻旁听也是毫无压力。

陈宇他们走的显然就是神经网络这个流派,不过也向前推进了一步,进入到了强化深度学习,而神经网络的前身就是感知机。

这三个名词本质上都是在玩同一个东西。

却说此刻,陈宇缓缓地说道“深度学习最基本的思想就是模拟大脑神经元的活动方式来构造预测函数和损失函数,既然叫神经网络,必然和人的大脑神经元有一定的关系,单个感知机的算法机制其实就是在模拟大脑神经元的运行机制。”

屏幕上呈现一张大脑神经元的结构图。

“这是一个神经元,大家都知道它的结构,这是树突,这是轴突,其它神经元发过来的信号通过树突进入神经元,再通过轴突发射出去,这就是一个神经元的运行机制。”

“现在我们把神经元的树突变成输入值,把轴突变成一个输出值,于是这个神经元就变成了这样的一张图。把它转化为一个数学公式就更简单了,x1x2x3y,就是这个公式。”

“没错,就这么简单。最复杂的事物往往是有最简单的事物创造的,简单的0和1就塑造了庞大的计算机世界,四种核苷酸就空置了纷繁复杂的生命现象,一个简单的神经元反射就塑造了我们的大脑。”

陈宇停顿了一会儿,再度环视众人“问题的关键不是基本结构有多简单,而是我们如何使用这个基本结构来构建庞大的世界,神经元之所以神奇是因为它有一个激活机制,即所谓的阈值。”

“神经元的每一个树突不断的接受输入信号,但并不是每一个输入信号都能让轴突输出信号,每一个树突在输入时所占的权重也不一样。”

“比如你追求一个妹子,你孜孜不倦地采取各种行动,今天送了她一束花,明天请她吃大餐,但你发现这些行动都打动不了她。直到有一天你陪她逛了一天街,她忽然间就被打动了,答应做你女朋友,这说明什么”