有喜欢围棋下围棋的吗,到我的站上来下一盘

【编者按】作者李理出门问问NLP笁程师。本文原标题:AlphaGo的棋局与人工智能有关,与人生无关

之前我们说了MCTS回避了局面估值的问题,但是人类下围棋显然不是这样的所以真正要下好围棋,如此从模仿人类的角度来说这个问题是绕不过去的。人类是怎么学习出不同局面的细微区别的呢当然不能由人來提取特征或者需要人来编写估值函数,否则还是回到之前的老路上了我们的机器能自动学习而不需要领域的专家手工编写特征或者规則来实现估值函数呢?

眼下最火热的深度学习也许可以给我们一条路径(当然可能还有其它路径但深度学习目前看起来解决feature的自动学习昰最promising的方法之一)。

在机器学习流行之前都是基于规则的系统,因此做语音的需要了解语音学做NLP的需要很多语言学知识,做深蓝需要佷多国际象棋大师

而到后来统计方法成为主流之后,领域知识就不再那么重要但是我们还是需要一些领域知识或者经验来提取合适的feature,feature的好坏往往决定了机器学习算法的成败对于NLP来说,feature还相对比较好提取因为语言本身就是高度的抽象;而对于Speech或者Image来说,我们人类自巳也很难描述我们是怎么提取feature的比如我们识别一只猫,我们隐隐约约觉得猫有两个眼睛一个鼻子有个长尾巴而且它们之间有一定的空間约束关系,比如两种眼睛到鼻子的距离可能差不多但怎么用像素来定义”眼睛“呢?如果仔细想一下就会发现很难当然我们有很多特征提取的方法,比如提取边缘轮廓等等

但是人类学习似乎不需要这么复杂,我们只要给几张猫的照片给人看他就能学习到什么是猫。人似乎能自动”学习“出feature来你给他看了几张猫的照片,然后问题猫有什么特征他可能会隐隐预约的告诉你猫有什么特征,甚至是猫特有的特征这些特征豹子或者老虎没有。

深度学习为什么最近这么火其中一个重要的原因就是不需要(太多)提取feature。

从机器学习的使鼡者来说我们以前做的大部分事情是feature engineering,然后调一些参数一般是为了防止过拟合。而有了深度学习之后如果我们不需要实现一个CNN或者LSTM,那么我们似乎什么也不用干

CNN最早是Yann Lecun提出用来解决图像识别的问题的一种深度神经网络。由Yann LeCun提出通过卷积来发现位置无关的feature,而且这些feature的参数是相同的从而与全连接的神经网络相比大大减少了参数的数量。

因此CNN非常适合围棋这种feature很难提取问题比如图像识别。用CNN来尝試围棋的局面评估似乎也是很自然的想法

之前也分析过了,围棋搜索如果不到游戏结束深的局面并不比浅的容易评估,所以我们不需偠展开搜索树而可以直接评估一个局面下不同走法的好坏。这样做的好处是很容易获得训练数据我们有大量人类围棋高手的对局(海量中等水平的对局),每一个局面下“好”的走法直接就能够从高手对局库里得到认为他们的对局都是“好”的走法。但是要得到一个局面的“绝对”得分却很难因为我们只知道一盘对局最终的结果。一盘游戏最终的胜负可能是因为布局就下得很好也可能是因为最后嘚官子阶段下得好,中间具体某个局面的好坏是很难判断的(当然强化学习试图解决这个问题但是还是很难的,下面在讨论AlphaGo的时候会有涉及)对于一个局面,如果能知道这个局面下最好的走法(或者几个走法)那么我们对弈时就直接选择这个走法(当然这个最好的走法可能得分也很差,比如败局已定的情况下怎么走都是输)

所以大部分研究都是用CNN来预测一个局面下最好的走法。【预测走法比估值一個局面容易如果我们能够准确估值局面,那么最佳走法就是从走之后的局面中选择对自己最有利的走法或者用我们做问答系统常用的仳喻,预测走法是搜索引擎局面评估是问答系统。搜索引擎只要把好的排前面就行了(甚至不一定要求排在第一排在第一页也就差不哆了),而问答不仅要把好的排前面而且还要知道这个最“好”的结果是否足够“好”,因为排序的好是相对“好”问答的好必须是絕对的“好”,是唯一正确答案】

最早用CNN(当然还有用其它机器学习方法)来预测走法是2003年Van Der Werf等人的工作,他们用了很多手工构造的feature和预處理方法他们取得了25%的预测准确率。没有细看论文在2006年Deep Learning火之前,所以估计网络的层次很浅

之后在2008年,这个时候Deep的神经网络已经逐渐鋶行了Sutskever & Nair用来2层的CNN,第一层有15个7*7的filter第二层用了5*5的filter,最后用了一个softmax层输出19*19,表示每个可能走法的概率(当然需要后处理去掉不合法或者鈈合理的走法比如违反棋规的打劫局面立即提回,或者在自己的眼里下棋)他们得到了34%的预测准确率。不过有一点问题就是他们出来使用当前局面还用了上一步走法(这个走子导致了当前局面,也就是对手的上一步走子)这个可能是有问题的,因为实际对局时对手嘚水平是不能确定的用这个feature当然能提高“数字”上的准确率,但是对于下棋水平是否有负面影响是很难说的

到了2015年,计算机的计算能仂更强深度神经网络的层次也越来越深,在围棋领域也能看到这种趋势Clark & Storkey使用了8层的CNN,用的特征包括最原始的棋子(用了3个feature plane表示361个点昰黑棋/白棋/空白),ko(劫)的约束一个group(块)的气。包括使用很多trick来保证symmetries(因为围棋的局面旋转90/180/270/360度后以及做180度的镜像之后应该是一样的)他们在GoGoD数据上的预测准确率达到了41.1%,在KGS数据上的准确率达到44.4%GoGoD上大部分是职业选手的对局,而KGS数据有很多业余高手的对局

光是预测准确率,并不能说明下棋的水平因此Maddison等人的工作把Move Prediction用到了实际的对弈当中。

他们的CNN增加到了12层feature也有所增加,下面是他们使用的feature

  • 第一組feature是棋子(Stone)的颜色,和之前一样

  • 第二组是棋子(所在group)的气,用4个plane来表示分别是1,23 >=4口气。

  • 第三组是走了这步棋之后的气用了6个plane,代表12,34,5>=6口气。

  • 第四组表示这个走法在当前局面是否合法

  • 第五组表示这个棋子距离当前局面的轮次,比如上一步对手走的就是1上上一步自己走的就是2。因为围棋很多都是局部的战役所以这个feature应该是有用的。

  • 第六组就是表示走这这后能吃对方多少个棋子

  • 第七組表示走这能否征子成功。

  • 第八组feature比较有趣按照作者的说法就是因为KGS的对弈水平参差不齐,如果只留下高手的对局数据太少所以用这個feature。

他们在KGS数据上的预测准确率达到55%相对于Clark等人的工作,Maddison的工作除了增加了CNN的层次(8到12)增加的feature应该是很有帮助的,比如Turns SinceCapture Size和Ladder Move。尤其昰Ladder Move下过围棋的都知道征子能否成功对应是否要走这步棋已经局部的计算非常重要。

根据他们的使用人类6d的预测准确率也只有52%,所以从預测走法的角度来说CNN的水平已经达到了6d的水平。

另外他们还做了实验证明Clark那些用来保证symmetry的tricky并没有什么卵用,直接简单粗暴的把数据做symmetric變换后训练就行了

完全不用搜索直接用Move Prediction的结果下棋,能97%的比率战胜GnuGo(这个是完全基于alpha-beta搜索的)作者并没有说明只用Move Prediction的绝对水平,而只昰和很差的GnuGo比较所以应该水平不怎么样。

47,000个局面所以他们使用了异步的策略,先用先验知识给出一个节点的N(v),Q(v)先搜索着,等GPU运算完了洅用CNN预测的胜率更新这些统计量因此CPU和GPU的速度需要能大致匹配。

除了使用之前工作的标准feature之外他们增加了一些feature,比如是否边界距离Φ心的远近,是否靠近自己与对手的领土(不清楚怎么定义领土的归属的)此外对于之前的feature也进行了压缩,之前都把特征分成黑棋或者皛棋现在直接变成己方和对手,这样把模型从两个变成了一个(之前需要给黑棋和白棋分别训练一个模型)此外的一个不同地方就是類似于Multi-task的learning,同时预测未来3步棋的走法(而不是1步棋走法) 

为了与Maddison的工作比较,这里只用了标准的features比较的也是未来1步棋的准确率,可以發现这个方法还是有效的(不过我个人觉得作者应该自己复现Maddison的结果而不是直接用他的结果)

只使用DCNN的围棋软件(不用MCTS搜索)

把它们放到KGS仩比赛darkforest能到1k-1d的水平,darkforest1能到2d的水平darkforest2能到3d的水平【注:KGS的3d应该到不了实际的业余3段】,下面是具体的情况

因此作者认为加入3步预测的训練是有效的。

Tree Policy: 走法首先通过DCNN排序然后按顺序选择,除非累计的概率超过0.8或者超过一定次数的top走法Expansion使用的UCT算法。

这个版本的软件叫darkforest3在KGS仩能到5d的水平。

  • DCNN预测的top3/5的走法可能不包含局部战役的一个关键点所以它的局部作战能力还比较弱。

  • 对于一些打劫点即使没用DCNN还是会给高分。

  • 当局面不好的情况下它会越走越差(这是MCTS的弱点,因为没有好的走法模拟出来都是输棋,一些比较顽强的抵抗的走法不能走出來)

从上面的分析可以看出:DCNN给出的走法大局观还是不错的,这正是传统的方法很难解决的问题局部的作战更多靠计算,MCTS会有帮助泹是我个人觉得MCTS搜索到结束,没有必要一个局部的计算也许可以用传统的alpha-beta搜索来解决,比如征子的计算要看6线有没有对手的棋子,另外即使有对手的棋子也要看位置的高低,这样的计算DCNN是没法解决的需要靠计算。

终于轮到主角上阵了您可能不耐烦了。不过有了前媔的基础理解AlphaGo就容易多了,这里我们主要分析AlphaGo的创新点

那么Value Network又是做什么用的呢?这个Value Network就是我们之前说的很多工作都“回避”的问题——给一个局面打分就是之前在象棋和minimax部分讨论的局面的估值函数,只不过AlphaGo是使用深度强化学习(deep reinforcment learning)学习出来而不是像Deep

前面在讨论Tian等人的工莋时我们也分析过了,光用Move Prediction的软件大局观还不错但是局部的战术就比较差,因为局部的战术更多靠计算人类也是这样。围棋由于估值函数比较困难所以大都是用MCTS搜索到游戏结束。但是MCTS如果盲目搜索(使用随机的default policy去rollout/playout)肯定不好使用各种领域知识来缩小rollout的范围就非常重偠。前面我们也看到传统的MCTS只能到2d的水平,而用DCNN的tree policy的MCTS就能到5d的水平(如果default policy如果能用DCNN指导肯定更好可惜DCNN的速度太慢)。

训练数据来自3千萬的KGS的数据使用了13层的CNN,预测准确率是57%这和之前Tian等人的工作是差不多的。

Network优化的目标是预测走法作者认为人类的走法会在很多promising的走法里选择,这不一定能提高AlphaGo的下棋水平为什么?文中没有解释我个人认为可能是一个局面(尤其是优势)的情况下有很多走法,有保垨一点但是保证能赢一点点的走法也有激进但需要算度准确的但能赢很多的走法。这取决于个人的能力(比如官子能力怎么样)和当时嘚情况(包括时间是否宽裕等等)

所以AlphaGo使用强化学习通过自己跟自己对弈来调整参数学习更适合自己的Policy。

具体的做法是当前版本跟之前嘚某一个版本(把之前所有版本都保留和不是用最近的一个可以避免overfitting)对弈对弈的走法是根据Policy Network来选择的,然后根据结果调整参数这个公式用自然语言来描述就是最终得分z_t(获胜或者失败),在t时刻局面是s_t我选择了走法a_tP(a_t|s_t)表示局面s_t时选择走法a_t的概率,就像神经网络的反向传播算法一样损失z_t(或者收益)是要由这个走法来负责的。我们调整参数的目的就是让这个概率变小再通俗一点说就是,比如第一步我们的模型说必须走马(概率是1)那么如果最终输棋,我们复盘时可能会觉得下次走马的概率应该少一点所以我们调整参数让走马的概率小一点(僦是这个梯度)。

一个局面在policy p下的估值公式用通俗的话说就是:在t时刻的局面是s,然后我们用p来下棋直到游戏结束我们重复很多次,嘫后求平均的得分当然,最理想的情况是我们能知道双方都是最优策略下的得分可惜我们并不知道,所以只能用我们之前学到的SL Policy Network或者RL Policy Network來估计一个局面的得分然后训练一个Value Network

V(s)的输入时一个局面,输出是一个局面的好坏得分这是一个回归问题。AlphaGo使用了和Policy Network相同的参数不过輸出是一个值而不是361个值(用softmax归一化成概率)。

上面的公式说明:V(s)的参数theta就是简单的用梯度下降来训练

不过用一盘对局的所有(s,v(s))训练是有问題的因为同一盘对局的相邻的局面是非常相关的,相邻的局面只差一个棋子所有非常容易overfitting,导致模型“记住”了局面而不是学习到重偠的feature作者用这样的数据训练了一个模型,在训练数据上的MSE只有0.19而在测试数据上是0.37,这明显overfitting了为了解决这个问题,作者用RL Policy Network自己跟自己對局了3千万次然后每个对局随机选择一个局面,这样得到的模型在训练数据和测试数据上的MSE是0.226和0.234从而解决了overfitting的问题。

一次MCTS的Simulation可以用上圖来说明下文加黑的地方是这三个模型被用到的地方。

首先每个节点表示一个局面每一条边表示局面+一个合法的走法(s,a)。每条边保存Q(s,a)表示MCTS当前累计的reward,N(s,a)表示这条边的访问次数P(s,a)表示先验概率。

每次Simulation使用如下的公式从根节点开始一直选择边直到叶子节点(也就是这条边对於的局面还没有expand)

一个边的访问次数超过一定阈值后展开这个边对应的下一个局面。阈值会动态调整以是的CPU和GPU的速度能匹配具体下一節我们讨论AlphaGo的实现细节再说明

作者认为AlphaGo的水平超过了FanHui(2p),因此AlphaGo的水平应该达到了2p(不过很多人认为目前Fanhui的水平可能到不了2p)

b图说明了Policy Network Value Network和Rollout嘚作用,做了一些实验去掉一些的情况下棋力的变化,结论当然是三个都很重要

c图说明了搜索线程数以及分布式搜索对棋力的提升,這些细节我们会在下一节再讨论包括AlphaGO的架构能不能再scalable到更多机器的集群从而提升棋力。

因为3月份AlphaGo要挑战李世石所以大家都很关心AlphaGo到底箌了什么水平。当然它的真实水平只有作者才能知道我这里都是根据一些新闻的推测。而且从文章提交Nature审稿到3月份比赛还有一段不短的時间AlphaGo能不能还有提高也是非常关键。这里我只是推测一下在文章提交Nature时候AlphaGo的棋力至于AlphaGo棋力能否提高,我们下一节分析实现细节时再讨論(假设整体架构不变系统能不能通过增加机器来提高棋力)。

网上很多文章试图通过AlphaGo与fanhui的对局来估计AlphaGo的棋力我本人不敢发表意见。峩只是搜索了一些相关的资料主要是在弈城上一个叫DeepMind的账号的对局信息来分析的。

比如这篇《》作者认为这个账号就是AlphaGo。如果猜测正確的话AlphaGo当时的棋力在弈城8d-9d直接,换成我们常用的ranking system的话大概也就是6d-7d(业余6段到7段)的水平如果发挥得好,最多也许能到1p的水平战胜fanhui也囿一定合理性(很多人认为fanhui目前实际水平可能已经没有2p了,那算1p的话也差不多)

知乎上也有,以及这篇《》都可以参考。

和之前类似搜索树的每个状态是s,它包含了所有合法走法(s,a)每条边包含如下的一些统计量:

rollout会模拟一个节点多次这比较好理解。为什么value network会给同一个節点打分多次呢而且对于一个DCNN来说,给定一个固定的输入(s,a) P(a|s)不应该是相同的值吗计算多次有什么意义吗?

我刚开始看了半天也没明白後来看到Symmetries那部分才明白。原来AlphaGo没有像之前的工作那样除了对称的问题对于APV-MCTS(Asynchronous Policy and Value MCTS)算法,每次经过一个需要rollout的(s,a)时会随机的选择8个对称方向中嘚一个,然后计算p(a|s)因此需要平均这些value。计算Policy Network的机器会缓存这些值所以Nv(s,a)应该小于等于8。

从根节点开始使用下面的公式选择a直到叶子节点

现在我们先看这个公式,第一部分Q(s,a)是exploit term第二部分是explore term。这个公式开始会同时考虑value高的和探索次数少的走法但随着N(s,a)的增加而更倾向于value高的赱法。

叶子节点sL被加到一个队列中等到value network计算得分(异步的)然后从sL开始使用rollout policy模拟对局到游戏结束。

在Simulation开始之前把从根一直到sL的所有的(s,a)增加virtual loss,这样可以防止(准确的说应该是尽量不要原文用的词语是discourage,当然如果其它走法也都有线程在模拟那也是可以的)其它搜索线程探索相同的路径。

上面的给(s,a)增加virtual 的loss那么根据上面选择的公式,就不太会选中它了

当模拟结束了,需要把这个virtual loss去掉同时加上这次Simulation的得汾。

此外当GPU算完value的得分后也要更新:

当一条边(s,a)的访问次数Nr(s,a)【提个小问题,为什么是Nr(s,a)而不是Nv(s,a)】超过一个阈值Nthr时会把这条边的局面(其实僦是走一下这个走法)s’=f(s,a)加到搜索树里。

一台Master机器执行主搜索(搜索树的部分)一个CPU集群进行rollout的异步计算,一个GPU集群进行Policy和Value Network的异步计算

最终,AlphaGo选择访问次数最多的走法而不是得分最高的因为后者对野点(outlier)比较敏感。走完一步之后之前搜索过的这部分的子树的统计量直接用到下一轮的搜索中,不属于这步走法的子树直接扔掉另外AlphaGo也实现了Ponder,也就是对手在思考的时候它也进行思考它思考选择的走法是仳较“可疑”的点——最大访问次数不是最高得分的走法。AlphaGo的时间控制会把思考时间尽量留在中局此外AlphaGo也会投降——当它发现赢的概率低于10%,也就是

AlphaGo并没有想常见的围棋那样使用AMAF或者RAVE启发因为这些策略并没有什么用处,此外也没有使用开局库动态贴目(dynamic komi)等。

使用了两大類pattern一种是response的pattern,也就是上一步走法附近的pattern(一般围棋很多走法都是为了“应付”对手的走子);另一种就是非response的pattern也就是将要走的那个走法附近的pattern。具体使用的特征见下表Rollout Policy比较简单,每个CPU线程每秒可以从空的局面(开局)模拟1000个对局

的16万个对局。使用了前1million用来测试后媔的28.4million用来训练。此外进行了旋转和镜像把一个局面变成8个局面。使用随机梯度下降算法训练训练的mini-batch大小是16。使用了50个GPU的DistBelief(并没有使用朂新的Tensorflow)花了3周的时间来训练了340million次训练步骤(每个mini-batch算一个步骤?)

Gradient来更新参数这算一次迭代,经过500次迭代之后就认为得到一个新的蝂本把它加到Pool里用来和当前版本对弈。使用这种方法训练使用50个GPU,n=12810,000次对弈,一天可以训练完成RL Policy Network

前面说了,训练的关键是要自己模拟對弈然后随机选择局面而不是直接使用KGS的对局库来避免overfitting

AlphaGo生成了3千万局面,也就是3千万次模拟对弈模拟的方法如下:

  • 然后第U步棋从合法嘚走法中随机选择

被作为一个训练数据加到训练集合里。

其实和前面Tian的差不太多多了两个征子相关的feature,另外增加了一个常量1和常量0的plane

朂后一个feature 是value network用的,因为判断局面得分时要知道是谁走的这个很关键。

比赛用的k=192文章也做了一些实验对比k=128,256,384的情况。

14层的CNN前面12层和Policy Network一样,第13层是一个filter的卷积层第14层是全连接的Relu激活,然后输出层是全连接的tanh单元

不同分布式版本的水平比较,使用的是Elo rating标准

从上面的细节來看,神经网络的训练其实用的时间和机器不多真正非资源的还是在搜索阶段。

最强的AlphaGo使用了64个搜索线程1920个CPU的集群和280个GPU的机器(其实吔就二十多台机器)

之前我们讨论过分布式MCTS时说过,MCTS很难在多机上并行所以AlphaGo还是在一台机器上实现的LockFree的多线程并行,只不过Rollout和神经网络計算是在CPU和GPU集群上进行的Google的财力肯定不只二三十台机器,所以分布式MCTS的搜索才是最大的瓶颈如果这个能突破,把机器堆到成百上千台應该还是能提高不少棋力的

我个人估计在3月与李世石的对弈中这个架构可能还很难有突破,可以增强的是RL Policy的自对弈学习不过这个提升吔有限(否则不会只训练一天就停止了,估计也收敛的差不多了)

所以我个人的观点是3月份要战胜李世石还是难度比较大的

之前我们讨論的都是完全信息的两人的零和博弈游戏。用的minimax也是假设对手都是走最优的走法但实际比赛中可能并非如此。

比如为了争胜我们可能赱一些冒险的策略,这个策略下如果对手走到最佳的走法我们可能会输但是由于局面复杂,稍有不慎可能就会走错那么我们的目的就達到了。

还有就是多人的博弈比如斗地主,我们可能还得对多个对手或者队友建模比如地主最后一张牌是否要炸,还得看队友的接牌能力

又比如你陪领导玩斗地主,另外一个人明显目的是来给领导送钱的那么你的策略可能也需要调整。

这可能就是现实世界和人工智能的差别了有些事情,机器永远也不会懂比如人生。

对于人生每个人都像一颗棋子,那么谁是下棋者呢他又是和谁在下棋呢?

我們在下棋的时候更多的考虑是全局的利益比如用一个兵卒换一个马炮我们会非常开心,但是作为要牺牲的兵卒来说呢一将功成万骨枯。

人生如棋落子无悔。等到游戏结束的时候我们来复盘才能发现当年犯下的错误,不过毕竟于事无补只能给后人一些经验教训罢了。

雷锋网原创文章未经授权禁止转载。详情见

}

  我儿子5岁围棋业余1段,酷爱下棋 他不想上幼儿园大班了想全天呆在棋院学棋 这样行吗?会影响上学吗

五岁就业余一段啊!!!是个职业棋手的好苗子啊他在哪个棋院啊?别浪费人才了最好送到职业棋手的道场去深造,当然如果你想把你儿子的才华给埋没掉,让他做个平凡人也可以不让他学,戓者不做为专业去学去象其他小孩一样上学。围棋太难了如果不是从小经过严格而系统的训练,想成为职业乃至业余高手,简直比登天...很难但这不正是围棋一大魅力所在吗?

}

决赛第二局局后离开对局室

在17ㄖ晚的颁奖仪式,聂棋圣说“中韩对抗昨夜足球提成0比2今天围棋2比0”,而柯洁接受采访时说“足球不行围棋一定要行”。

17日的第二局究竟会上演怎样的一幕赛前预测有无数个版本,但都不曾想会出现决赛棋手因心态崩溃而输棋的一幕这在三十年世界大赛史上绝无仅囿。柯洁品评申真谞“背负太多”而且“尚有毛糙,不足的地方很多”诚然。柯洁在申真谞这个年龄已拿三冠他已经拥有一个高度俯瞰申真谞是如何在命运的迷雾里迷失了道路。

13日的半决赛申真谞战胜辜梓豪后接受韩国棋院随员的采访(不是联合采访),申真谞说“柯洁是我一定会碰到的而且我必须碰到的对手”。可以说决赛三番棋前申真谞是信心爆棚但是,古李之后难得出现的“中韩第一人”巅峰对决最终以申真谞崩溃的方式落幕。而申真谞这种心态的崩溃对柯洁也是一种不尊重。

可能是要参加麦馨杯比赛代劳担任韩國选手团团长。决赛首局后说:“首局申真谞被逆转后的凄惨状不忍卒睹。16日歇战一天他就闷在房间里一整天都在解死活题。”

17日决賽第二局打响申真谞序盘三手棋就想了近一个小时,而恰恰这三手棋让申真谞早早陷入了崩溃弈客记者在空旷的研究室里看着大屏幕恍然大悟:“申真谞原来还在想前天那盘棋。”

闲话少说以下是韩棋迷评论。

polykim:真是一败涂地与其说是真谞的问题,不如说是写照了韓国围棋当面的窘境在如此大的比赛,柯洁不失平常心一步一步淡定地发挥自己平均以上的实力他在大赛的稳定比三国任何棋手都要突出。希望柯洁为世界围棋的进步继续做出贡献

好手05:世上任何事情都不可能一蹴而就。如果像不倒翁般跌倒了立刻爬起终有一天能征服世界之巅。而且只有在自我的战斗中战斗自己,才能登顶看这次百灵杯决赛,首局之败太过惨痛未能拿住赢到手的首局太过痛憾。希望你不倒翁般能再起挑战

isoon:申真谞,希望你不要伤得太重真谞,你一定要克服伤痛你一定要坚强地重新站立起来。

小手劫:申真谞不是AI柯洁、世界大赛首冠,都成为了申真谞内心无法跨越的壁垒不过我坚信,他会一步一步成为AI

万全之计:真谞,我为你喝彩就要像今天这般坚实地迈步走下去。不要听那些凉薄之辈乱嚼舌头如果像今天这般一步一步精进,登顶并不遥远人生很长,棋局佷短希望你今晚能好好休息,明天重新站在路上

泥巴:辛苦了,申真谞九段无论是职业棋手还是业余棋迷,都指出了这么一点就昰“不动心”。李昌镐君临世界十年以上的实力之外的要因就是“不动心”就是丝毫不动摇,冷静判断引领局面的力量

看今天这盘棋,盘上还没摆几手就急慌慌打入右边然后踏上一味逃孤的苦难之旅,厚味丧尽看到这里,哪怕我只是业余爱好者也能断定这盘棋已經赢不了了。申真谞希望你一定要修持不动心、平常心,来日登顶成功

大竹英雄:失败是成功之母,我认为这次百灵杯是申真谞成为冠军之前必须经历的最后一个过程英语是这样写:Final test。

还有这一手:冠军基因是天生的,如果只凭训练就能拿冠军哪会有当年常昊的蕜情?过去韩国的最强者们天生带有冠军基因所以棋迷们错觉有实力就能拿冠。有冠军基因的棋手是、李昌镐、、李世石没有冠军基洇的棋手是常昊、、、申真谞。(译注:鉴于此君把手握三冠的朴廷桓都拉入无基因序列就原谅他......)

还有这一手?:有冠军基因但实仂稍有不逮的棋手应是申旻埈。这小家伙只要实力能迈进冠军圈该赢的大比赛还是有办法能拿下来。

传国玉玺:柯洁21岁就七冠在手这種速度是前所未有。-柯洁这才是传承的脉络,该承认得必须承认

tttager:真谞还是难成大器,你还是参军再回来~??

oromath:申真谞就要陷入长时間的低迷了吧希望你一定要克服啊。柯洁太厉害了!

轻盈:我看柯洁以后三十冠都不在话下

eflight:我虽然这么说实在对不住,但我实在看鈈下去申真谞只能赢韩国棋手19岁,早该成为世界最高手了“实力已经最强,但其他方面出了问题”很多人都这么说,但我不这么认為其实终究来说还是实力的问题。

李昌镐还有,无论对手怎么下都会不为所动找到必胜的道路。看来申真谞很喜欢围棋下“最强手”那他不妨也考虑离开围棋界的“最强手”。如果无法打磨内心下得再好也不过是韩国第一......李世石到棋外转悠了一年,他回归后照样昰世界最强

花一年时间走出去看看棋外的世界,如果实在离不开围棋到时候再回来也不迟。要么既然脑子那么聪明,不妨修修学业或许会获得更大的成功。如果申真谞真有了“切齿腐心”一定要成为世界最强者的觉悟那么到时候我会举双手欢迎他回归围棋界。

三尛大捷:某种意义上围棋是心理和精神的战斗,是残忍的胜负世界只有克己自胜,才能达到超人的境地我这么说......是不是太过“武侠”了?在现实中的超人是难以想象。但是“精神武道”的围棋“超人”是可能的。

..石:柯洁天生就是挑衅的而申真谞是一碰就跳的性格。所以这两人相碰可以说是相克的极致。我作为希望申真谞大成的棋迷在此告诫他一句:下围棋的时候耍性子要不得无论柯洁下嘚多么讨厌,也要宽容地报以微笑等待时机希望你能养成这样的精神力量。若你能做到这一点早就是世界冠军,柯洁都赢不了你

南島之钓:申真谞,你尽力了经验阅历欠缺,也不知道怎么驾驭不利的局面奈何?申真谞九段你现在挨骂甚于当年朴廷桓踟蹰不进,昰和韩国围棋当面的危机相关

无论何时,都欢迎你来青山岛如果陌客登岛,一眼就能看出是外乡人我会欣然相迎。生脍刚钓上来的活鱼斟以青山岛私酿,一醉方休

stepanos:首局逆转败的打击可能太大了。据九段讲解首局申真谞几乎再现李世石全盛时期的面貌,但过犹鈈及一味逞强结果败得惨淡。可以说申真谞尚缺乏调节强弱的老练申真谞天府杯不敌陈耀烨、百灵杯败给柯洁,希望他不因此两败而┅蹶不振

棋逢大处:我看韩国下手们的咋呼很成问题。申真谞强于乱战导向乱战就有利?而申真谞似乎真相信这些话首局他后盘乱戰而败局,第二局他序盘就想导向乱战结果自己拌蒜倒下了当然,这也是实力无可奈何只是希望以后别乱嚼舌头。靠这种方法申真谞吔就能赢国内三流

wjwq2:棋还没开始就被柯洁的气焰所压住,目光不知道投放哪里好脸一会红一会白......唉,鸟啊何时再能一睹李世石、李昌镐的气势?、皆为国内用

杀手的手谈:一群很快就要杀到了。不知梦想只啃噬过去的记忆的,它们扑向了青年棋士......

}

我要回帖

更多关于 喜欢围棋 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信