AlphaGo虽然赢了,但有人却说它其实挺“笨”的

  • 时间:
  • 浏览:0
  • 来源:大发彩神UU快三_大发神彩UU快三官方









看来,这次和柯洁的比赛,依然没能改变这个 现状,愿因 现状没能改变了。还是黄博士,而都是黄博士化身的机器人,我是多么期待真正的机器和人下围棋。

没能来说,许多异样,为哪此没能聪明的 AlphaGo,不真正做成有一个多多机器人,能看棋盘,能下棋子,能思考,还能说笑,会不多再更好玩。其实,有时看起来简单的事情,让机器来做不一定简单,这是后话,不啰嗦了。

具体来说,“蒙特卡洛树搜索”是这个 启发式的搜索策略,有助基于对搜索空间的随机抽样来扩大搜索树,从而分析围棋类似于游戏中每一步棋应该为什走有助够创造最好愿因 。来个通俗的解释,假使 筐里有100个苹果机手机,让人每次闭眼拿有一个多多,挑出最大的。于是你随机拿有一个多多,再随机拿有一个多多跟它比,留下大的,再随机拿有一个多多……你每拿一次,留下的苹果机手机都大约不比上次的小。拿的次数不多,挑出的苹果机手机就越大,但你除非拿100次,许多无法肯定挑出了最大的。这个 挑苹果机手机的算法,就属于蒙特卡罗算法,尽量找好的,但不保证是最好的。想像这个 拿苹果机手机的场景,是都是就感觉累,许多特别“笨”,然而,对于机器来说,它原来要做巨多的这个 尝试。其实是劳模。



记得小刚刚,城里来了个机器人展,于是买了门票,兴致勃勃的去看,有踢球的,有打球的,有玩游戏的,有讲故事的,有谈情说爱的,等等。我最感兴趣的是有一个多多能和我对话的机器人,她会问我什么的问题,也会回答我的什么的问题,好神奇呀。天真无暇的我,玩的很开心,心带有了追求科学的梦想。许多,却说我大家我想知道,其实当时每个机器人里面都是藏着有一个多多真人,于是心中咯噔一下,许多懊恼,幼小的心灵就没能受伤了。







许多,这个 个多深层学习网络模型,为什训练出来的呢?这时,不得不说随机梯度下降(SGD),这个 “笨”措施。

为了求有一个多多目标函数的最优值,多样化许多的,可不都可不可以了像解有一个多多二次方程一样,用有一个多多简单的公式就能得到方程的解。

没能看来,你是都是也感觉 AlphaGo 其实挺“笨”的,这个 “笨”,其实是人类把另一方能处理此类什么的问题,用的最聪明的“笨”措施教给机器了。大约到现在为止,AlphaGo,在还没能像爱因斯坦的E=MC2的美妙数学公式造出人前,也是最聪明的了。

有了哪此,机器就能玩的可不都可不可以了,许多,毕竟还有不多的空间没能尝试过,却说我能保证当前的模型预测的每一步都是最优,因而,AlphaGo 心里都是特别有底气。那咋办?这时,机器可不都可不可以求有助蒙特卡洛了,却说我在下棋的过程中,以当前的情况为起点,在有限的时间内,尽量多的再探索许多搜索空间。这个 探索的措施,却说我暴力采样,有一个多多有一个多多的试,没能看来,是都是特别“笨”。

点击查看原文

对于,围棋这个 深层学习要求的目标函数,没能有一个多多简单的求解公式,那咋办?可不都可不可以了求有助迭代,随机梯度下降迭代(SGD),就像爬山,每往上走一步,都是接近山顶许多点,愿因 叫摸着石头过河。毕竟机器的计算能力强,这个 数值计算,是它的强项,却说我它拼命的算,直到算到有一个多多还算满意的结果。这回知道了吧,为哪此 GPU 这个 东西来做这个 重复简单的计算。没能说来,是都是特别“笨”。就像让当当我们有一个多多公式不多再解时,就从1刚刚开始带入计算,看看是都是满足条件。或是,做选则题有3个选项,每个选项代入公式算一下。

现在,人工智能取得了飞速发展和进步,儿时的记忆的场景愿因 详细反转了。看看 AlphaGo 和李世石的围棋比赛,其中最大的看点和吐槽应该是图片中的石头人黄博士,这时,机器人走到了后台,充当了智能的核心,而人,也却说我黄博士,却说我起到了人机交互的媒介。



原文来自微信公众号“待字闺中”,作者:陈老师

好了,好了,AlphaGo 愿因 你不“笨”,能和人类一样,触类旁通就牛逼,可不都可不可以玩大家类很容易适应的新玩法,还是围棋,比如,将棋盘改成有一个多多比19大的,或是改变下棋时的有一个多多小小规则,原来,跟我说能更好得证明不“笨”。这个 场景,涉及到另外的有一个多多机器学习领域,却说我迁移学习。人类,好像特别擅长。

让当当我们知道,围棋的搜索空间很大,有3的19x19次方个情况,要在没能大的空间去找最优算法,有一个多多有一个多多看是不愿因 的,不多被认为人类智能的有一个多多高点,处理时可不都可不可以优化搜索。人是根据许多输入空间和参数较少的模式识别来记忆和搜索,而机器采用的却是大数据,大记忆和大计算来实现的。说到 AlphaGo 里面的智能和算法,就可不都可不可以了不说深层学习(DL),强化学习(RL),和蒙特卡洛树搜索(MCTS)。

AlphaGo 有另一方的想法,它求有助强化学习,也却说我self-play,或是左右手互搏,来提前尝试更多的搜索空间,减少未知空间,并肩通太粗 层学习的网络模型记录下来,提高前面有一个多多模型网络的效果,没能真正下棋的刚刚就能用上。这却说我平时多努力,老大不白头。这个 劳模的精神,在现实生活中,有都会不多再被认为时特别“笨”,只会死干。

二是根据现在的棋盘情况,决定下有一个多多棋子该怎么才能 才能 走有助有最大的赢的概率,它却说我 AlphaGo 的策略网络(Policy Network)。也却说我说,给有一个多多19x19的棋盘情况,在所有空的地方,哪个是最佳的选则,会有最大的赢率。同样,也可不都可不可以用有一个多多函数来描述,输入是当前棋盘情况,输出是每个空处和它期望的赢的期望值,但这个 函数还没能有一个多多高级的数学公式,不多,最后也求有助多层神经网络。



在强化学习的算法中,也可不都可不可以几滴 的迭代计算,以求得到最优的期望值,也却说我达到收敛。这个 “笨”措施,效果还不错。





深层学习,主要用来学习和建立有一个多多模型网络。有一个多多是评测现在的棋盘情况怎么才能 才能 ,也却说我说给当前的棋盘情况打个分,评估一下赢的期望值,它却说我价值网络(Value Network)。输入是棋盘19x19每个点的情况,有子或无子,输出是赢的期望值。按理说,愿因 却说我有有一个多多聪明的数学家或是机器足够聪明,说不准他马上就能在黑板上写有一个多多高级的数学公式。很遗憾,现在还没能,不多,可不都可不可以了用多层的神经元网络来近似表示这个 高级的函数。没能来说,是都是特别“笨”。

哪此玩意儿,都是线下用几滴 数据,做几滴 的辛苦计算得到的,赚的是都是辛苦钱呀。没能,在真正下棋的刚刚,用它们就能减少或愿因 预算了很大的搜索空间,不好的情况,不好的棋子,就不多再花时间去都看。在平时不比赛的刚刚,机器却说我会闲着,毕竟还有不多情况没能尝试过,毕竟哪此暂时认为不好的棋子不一定最后不好,那咋办?



期待不久的将来,AlphaGo 能“一蹶不振 ”人类教他的“笨”措施,和爱因斯坦一比高下。那时,让人类真正体验到你的自有的智慧人生和聪明。

好了,段子讲完了,该言归正传了。免得被唾沫淹死,首先申明一下,AlphaGo 其实很厉害的,却说我简单。许多,为哪此又说,AlphaGo 挺“笨”的呢?