打败人类不可能。
因为是人类设计的趣味小游戏;火柴人能打败机器人吗?可以的。
趣味小游戏;火柴人能打败机器人吗 是在优酷播出的游戏高清视频,视频内容简介:趣味小游戏;火柴人能打败机器人吗,可以的。
吞噬星空人类怎么打败自由联盟和联军具体操作方法如下:具体操作方法如下:单人模式和团队模式最大的不同处是,一个是单人对抗赛,一个是团队对抗赛;单人模式和团队模式最大的相同处是:两者都是一个团队在作战。和众多游戏不同的是,《星空吞噬》中的星球可以分裂成多个星球,这其实是一个人操控一个星球战队,这个战队可分裂可融合,全在玩家的掌控之中。越是简单的规则,游戏可开发可操作的空间也就越大。战斗时,体重越高,星球的移动速度越慢,所以任何减少单个星球体重的行为都是增加移动速度的好办法。而分裂、喷射都可以帮助星球多样作战。当被对手层层包围住时,将要被吞噬的我们当然想让对手可吞噬体重的尽量减少,此时,可以向边界外喷射无主物质,来降低对手获得的利益。陷阱作为一个外部BUFF,可增益可减益,必须牢记一点:陷阱只会刺破比它直径大的星球。陷阱可以被吃掉。
这是星际一代流传甚广的一张图,三个炮灰级别的机枪兵,通过极限操作,精确的避开了潜伏者的每一次攻击。
试问现在有多少玩家能够重现类似的操作,又有多少玩家能够在决战阶段大规模复制这样的操作?我想答案是很容易得出的。
而在ai手里,他每一个机枪兵乃至农民都可以做出这么灵活的操作。人类玩家与阿尔法狗级别的人工智能对战,在操作精度上的差距是非洲雇佣兵与美帝军队的差距。
有朋友认为强制ai使用摄像头观察战场画面,使用机械手操作键盘鼠标,可以降低双方差距。肉眼可以感知的画面变化大约一秒24帧,而摄像头可以很轻松的记录和分辨出每秒60帧以上。人类职业玩家的apm约在300-400之间,每秒鼠标点击次数约5-7次。这对人类已经是极限操作了,然而机械手的速度与精度可以高出10倍有余。以目前的硬件水平,ai已经可以通过摄像头更快的侦查战场环境,机械手更快的部署单位行动。人类在操作效率的精度上没有胜算。
那么人类能否通过战略思维的优势,弥补战术操作的差距呢?这个可能性也是微乎其微的。目前的战术套路都比较成熟,几人口做什么,什么时候侦查什么时候骚扰,对不同种族使用什么兵种组合,我们看职业选手对战基本是可以猜到套路的。人工智能只要进行足够多的训练,就能完全掌握目前星际中为数并不多的攻防套路,再通过他的神操作,无限放大和积累优势。围棋可以看做是最公平最量化的一种战略博弈方式,他的意义在于假设对战双方有完全相同的战斗力和机动能力。四子提一,量化了战损。可以说是完全不考虑资源后勤武器 科技 战场地形等具体因素后,纯粹的战略战术博弈。人类在最近的对弈中一败涂地,则证明人工智能在这样单纯抽象的规则下,已经游刃有余了。而星际领域,这样充满了繁琐的操作因素的 游戏 里,我们还面临巨大的硬件劣势。可能会败得比围棋领域更快。
真正能够让人与人工智能有来有往的 游戏 ,应该是炉石传说。需要策略,同时存在许多机会因素。人类不会一直输。
———————
2019年更新: 人工智能训练结束,首战初露锋芒。10:1横扫人类玩家。
这个事情已经是现实了,人类在星际争霸2上面已经快被AI打败了。
DeepMind宣布AlphaStar达到星际宗师级别
2019年10月30日, DeepMind 宣布他们专门用于星际争霸2的人工智能 AlphaStar 已经在星际争霸2的天梯上,三种族都达到了Grandmaste宗师级别,超越了99.8%的人类玩家。下面这张图是他们的在官网的宣告。
同时这个成果已经被DeepMind发表到了《自然》杂志,说明都已经是实锤了。
公平对决
同样是被人工智能打败,围棋这种回合制比赛,至少让公众觉得操作量是平等的,每回合人类走一步,人工智能也就走一步。而AI运用在星际争霸上最大的问题就是操作频率上的不对等。
最有名的就是AlphaStar去年与欧服人类宗师MaNa比赛时的这张动图。可以看到人类的APM基本在400左右,而AI的APM在巅峰时甚至可以达到1500,人类玩家操纵的是一只队伍,而对AI来说这支队伍每个个体乃至组合起来的整体都有操作最优解。
所以这次AlphaStar进入天梯的首要条件就是 操作量上的对等 ,不论是APM还是EPM都被限制在了人类水平。
人类实感
初期参加rank的AI全是匿名的,所以天梯选手即使遇到了AlphaStar也不会知道。
但在后来对天梯遇到过AI的选手做过采访后,选手都表明了在不知道对方是AI的情况下与AI战斗有一种前所未有的古怪感,无从下手,这个和围棋领域人类被打败是一样的。与初代的研究棋谱不同,现在的AI全部是使用深度学习,通过自我对弈完全从零成长起来的。人类那点经验和自我博弈所获得的巨量成长比起来完全微不足道。
实战直播中,很容易从与AI对抗的人类玩家脸上捕获一些生无可恋的表情。那是一种陌生的压迫感,完全不给呼吸空间的窒息感。
完全放开能力的AI将碾压人类
前面AI参加的Rank其实是把AI的手足绑起来以后的结果,这种结果下都已经战胜99.8%的人类。假如完全放开AI的操作限制,人类将会完全没有招架之力。
比如最经典的一张图,三个机枪兵螺旋走位零伤打地刺。人类可能要苦练数年才能在非常极限的情况下做出这种操作,而这个对AI来说不费吹灰之力。
比如职业选手被封神的丝血飞龙极限甩尾操作。在AI那里就是基本操作,人类玩家在对抗这种AI时毫无招架之力。
最震撼的一次还是前几年小狗冲击炮塔,每个小狗就像有蜂巢思维一样,自适应组成最低伤害的阵型。当某个狗被坦克当做攻击目标时不可避免地要牺牲时,其他狗以这个被攻击的狗为圆心自动离开刚好爆炸半径的范围,把伤害锁定在只有一只狗上面,以最小的代价冲散了十倍经济价值的坦克群,没有半点多余的操作。
这些对人类来说几乎不可能的操作,在AI面前都是小儿科,这些只不过是操作层面上的碾压。
随着深度学习样本的无限增长,现在的AI在 运营 上面都已经完败人类,策略这块人类最后的尊严地似乎也已经被瓦解了。
不需要在乎
这些项目上被AI打败根本不会触及人类选手的尊严,不管怎么限制AI,这都是一场不对等的战斗。
AI战胜人类的背后是高出几个数量级的训练度,高出几个数量级的操作量。
没人会因为博尔特跑不过兰博基尼就不承认他是世界第一快。人类只要和人类比就行了。所以即使后面AlphaStar登顶星际Rank,我们该玩的还是照样玩。
人类是不可能战胜ai的。大道理不说,围棋是人类的 游戏 ,ai赢了,星际争霸是电脑的 游戏 ,在人家的地盘上,你还搞毛毛啊。
人类能操作两线作战的,就是高手了,能操作三线作战的,我在自己的 游戏 生涯中没有见到,可能世界顶尖高手能做到吧。我拿我早期的一个 游戏 实例说明下,lost temple,pvz,z一队刺蛇在地图中央,和p的叉子,电兵周旋,你不动他就打你,你打他就跑,趁你不注意,点死你一个兵就跑,p无奈了,在他忙于操作这里的时候,家里被Z空投了。
还有一次,TVT,被进攻的T和进攻的T兵力相当,进攻的T用雷达扫了下对方,发现他的机枪和MM在门口集合,双方兵力相当,可能防守的还多些,进攻方打了下兴奋剂,护士加上血,直接a过去了。对方发现的时候,如果不打兴奋剂,死得很惨,打兴奋剂是30血的枪兵对40血的枪兵,也是很惨。。。。
如果是ai,他会把这些发挥到极致,操作6个枪兵打4个XX绝对和玩一样。所以,这个ai和人类打星际的新闻有那么一句不知道你们注意看了没有。ai制作方要制定一个规则,这样才能和人类公平的竞技。所以说,人类选手面对的是一个被限制的ai,这样人类才有取胜的可能。
(观点仅供参考,抬杠恕不奉陪)
有无可能?别开玩笑了,在没有限制条件下,AI能把人的屎都打出来(那些说给AI装上手脚用鼠标键盘来打的人,所以阿尔法狗下棋还得装上爪子自己抓棋子才算?);
如果你对AI能做什么没什么概念的话,不妨先想象一下以下这样一个对手:它开明图,且一刻不离地观察你的一举一动并即时反馈,它的每一个单位都单独由永不失误的高手操纵,且这些高手心意联通(任何编队个体均能在同一瞬间向任意方向散开,正面跟你接团的时候空投你家农民的同时在自家拍下几个建筑点下一队兵),它的资源利用率永远最优,它对建造、移动的时间把控精确到秒,它对血量和攻击的计算永不出错,,,是不是觉得这样的对手根本不可能打的赢,是的,抱歉,无限制的AI能做的只会比这更多;
所以,电竞项目的AI设计都限制了算法模式,比如战争迷雾,比如APM上限,人类这才勉强有机会打得有来有回;
为什么棋类AI直到最近才真正完爆人类,正是因为棋类是回合制 游戏 ,从根本上回避了人类和程序差距最大的操作环节,这才让人类用纯智商坚持了这么久;
就这样。
本人曾经是星际2宗师组水平,发表一下个人观点。
能打,但不能赢。
人类选手是可以根据需要和变化开发出新战术,目前的ai对于局势的判断和选择都需要大量的训练样本作为参考,这些都建立在掌握全局信息的基础上。所以没见过的战术如何应对,非常考验高层人工智能的泛化能力,这是目前ai最欠缺的。
对于围棋,象棋来说,ai知道需要判断局势的全部信息,而应对是唯一的落子位置。和围棋不同,星际你无法掌握全部信息,即便是职业高手在比赛中经常判断不准,相对应的操作也并非最好选择,有时候甚至是根据选手风格进行心理博弈。
另外星际有运营和侦查的概念。运营来说,什么时候开矿,如何分布兵力防守,矿开哪里,是否偷矿?对于侦查来说,怎么选择侦查时机,已经看到的信息你信不信?有些骗招你侦查不到肯定是输,有些故意给你看的信息都是误导你。
所以我认为很难,基本没可能像阿尔法狗一样横扫。
不要因为你无法想象一些东西,就以为这些东西就真的犹如你想象的那么简单。前面也有答主提到了,人工智能的神速操作可以令星际争霸里的单位移动如神速,或者走位骚爆天际,直接导致一些靠操作可以回避的东西能够达到100%发动。
这意味着什么?咱们一个人类选手需要刻苦练习多年才能稳定而熟练地使用的变态操作技巧,可能对人工智能来说,是它的每一步操作。如果所有的操作都是这样的,那就能够带来巨大的收益和优势。不仅是前线的兵,甚至是后勤资源的建造和采集,都可以精确到每一小步。运营和战斗都达到神级。
你觉得这就很牛逼了么?不,最可怕的是这些运营和战斗是同步进行的。一个玩家就算能够熟练掌握这些技巧,可能也只能同时看着一个屏幕,如果来回切换过快的话可能他自己也受不了,但是人工智能不一样,它随时看多少个都无所谓。那就可以双线,甚至多矿和多兵线的时候可以同时五六线操作,而且同时这些操作全部滴水不漏。
再提醒一次:这个事情对人类来说巨难无比,但是对人工智能来说是轻轻松松。
你还觉得人类能够打赢人工智能么?恐怕你需要先去了解一下什么叫自动操作。人类对于这些需要高速反应的训练,终究难以突破肉体本身的限制,而且只要是人就会出错,然而人工智能却不会。
首先说结论,人工智能完全可以打败一个星际高手,甚至于可以打败任何一个星际玩家。
你已经谈到“人工智能”这个词了,其实这个词由两部分构成:人工与智能。人工在星际争霸里指的便是操作,就操作而言人类完败。在普通人眼里,星际争霸高手玩家必然能做出让人眼花缭乱的操作,但这些操作在计算机眼里就是一些代码与数据。人类唯一可以取胜的便是“智能”这一环,但我认为就星际争霸而言,“智能”这个环节人类也无法比拟计算机。
你的命题局限在“星际争霸”这款 游戏 中,这款 游戏 并没有想象中那么复杂,人类需要学习数月的操作与战术,对于计算机而言,就是瞬间完成的事情。
总归而言,星际争霸这样的竞技类 游戏 ,他的规则是固定的,无法改变的。在这种固定的规则下,并不存在太多的感情因素,所以人类在“智能”这一环,根本没有优势。
我在举个更通俗的例子,诸如cs这个 游戏 ,你觉得人类与人工智能较量有几成胜算?我认为是没有胜算。星际争霸的规则可能比cs复杂,但仍然是在一个限定规则里,而完美无瑕的操作可以击败任何的战术。
人工智能在 游戏 里可以所向披靡,但在现实战争中它不能取代人类,因为人类的 情感 是有缺陷的,他可以被鼓舞、被策反、被消沉、被磨灭,人类的 情感 是有变化的。但在 游戏 里,你看到的每一个人物、每一颗树、每一颗星星都只是一串代码,它们是没有任何 情感 的,在这种环境里,人类绝无取胜的可能。
当然,人工智能有它的局限性,它永远无法拥有人类的创造性。诸如音乐、文学、绘画、剪裁等方面,人工智能永远没有办法在这些项目承担一个创造者。
人工智能是冰冷的,数据是没有情绪的,人工智能可以复制,但永远无法真正的创作。
说点题外话,我曾经倒是真的想过一个问题:随着时间的推移、 科技 的发展,艺术工作者会越来越受欢迎,因为当所有的一切都可以自行运转后,那些具有创造性的事物便开始稀缺无比。
大致如此,希望这个答案可以帮到你。
星际争霸里关于ai的神级操作流传的视频有很多。最著名的是两对小狗啃掉一队坦克的那个。小狗在冲锋的时候会精确避开坦克集火的目标导致坦克每次只能杀一只狗。最终坦克被狗啃爆。
很多外行,我是指对人工智能外行的都会说,看,ai的操作精确到毫秒,人类肯定做不到,所以要限制ai的apm,使用鼠标之类的。小白点当然就会说直接断电好了。
那么现在讲解下那个视频的问题在哪里。首先,对局是真的,不是什么PS之类的后期改过的。然后,在那场对局里ai是作弊的。方式是ai在操作之前会先读取 游戏 的内存,从而得知坦克集火的目标是哪个 配合ai的无缝操作,做出了那个著名对局。
那么这个视频里的ai和阿尔法狗有关系吗,没有任何关系。谷歌做阿尔法狗并准备参加星际比赛,是为了测试人工智能在全图迷雾的情况下会怎么判断。对于阿尔法狗来说,全图的迷雾是个很大的未知,他需要不断的判断,现在是该开矿还是该暴兵,是该 探索 地图还是去骚扰?这些对于人类玩家来说,熟悉几天就大致知道原理了。练习一个月基本就成熟了。成为高手这点我们不谈。但是对于阿尔法狗或者说是来说,涉及到的算法是不断变化的,阿尔法狗都自己摸清现在是什么局面,该做什么。赢不赢的还在其次。
至少在目前来说,还没有完整的不依靠作弊的人工智能能够赢人类高手。
肯定能赢,而且可以说几率很大,毫无疑问现在的IA已经初步具有一定的自我学习能力并不是单纯的计算,在围棋中AI不需要揣测你的意图 你的表情等,他只需要在海量的对战经验中+疯狂的计算结果 找出胜率最高的一步去下...
但是在星际2中我们感觉好像还有机会很大原因是因为战争迷雾,这似乎加大了AI的难度但是我觉得真的太乐观了,就算APM限定在400对于AI来说5条狗不停地在地图上跑基本就能掌控地图的85%,而且对于AI来说打星际绝对不需要掌握太多内容跟战术,职业选手需要搞很多战术那是因为我们人类做不到把这个 游戏 算清楚的能力,而AI不一样,他可以从 游戏 开始,就计算你的经济,猜测出你这时候有多少资源,能出什么 科技 ,兵有多厚。
就像棋手会揣测对手的意图说白了就是我们的脑容量不够所以希望找捷径,SC2的AI哪怕就会是三套战术就打遍天下无敌手:
第一套:人族双BB 开局靠绝对细腻完美的农民操作 地图中间点兵营 你根本无法阻止 然后拖出双兵营产能不需要的农民 一波完美操作,宗师组以下选手全得死。
第二套:神族纯闪烁追猎 然后分成5队到8队疯狂骚扰换家 掌控所有地图 家里发展刷满兵营,最后一波怼死 90%职业选手已死 。
第三套:随你想象 反正我认为如果认真开发一款星际2 AI,一定是几套战术就打遍天下无敌手 绝对不需要设计多么复杂。
通过《星际争霸》的人机对战,我们可以很明显地看到,人工智能要战胜人类顶尖玩家还有很长的路要走。然而,尽管Djem5让AI看起来很蠢,但还有一些机器人(例如Tscmoo krasi0)在ICCup上已经做了一些额外的测试,能够打败D级、甚至一些C级的玩家。当人类玩家与AI玩过一两场比赛后,就能预测和探测出AI的一些小错误,从而轻易赢得 游戏 。所以,尽管AI能够赢得一些业余玩家,但它们面对那些能够学习它们行为的顶级人类玩家时,还是无计可施。人工智能在速度、存储空间、软件上比人类有优势外,智慧上永远比不上人类。
《人类一败涂地》是一部纯真的动作喜剧解谜游戏。
其中前两个词汇的修饰意义更加重要。它就像是《我是面包》,但在风格上更加清新,在机制的打磨上个也更显精致。
它同时也是一部在合作时能让乐趣翻倍的作品,如果你身边有人陪你一起玩,那就一定不该错过这部作品。
游戏特点
1、最多8名玩家的在线多人模式会改变《人类一败涂地》的游戏方式。
2、可以选择建筑工人、大厨、跳伞员、矿工、宇航员或忍者的服装。还可以分别打扮你的脑袋、上半身和下半身,并且用脑洞让故事变得创意十足。
3、自游戏推出以来,已经发布了四个新免费关卡,而且很快还会有更多。
4、《人类一败涂地》因合作游戏的方式受玩家喜爱,为玩家们带来欢乐。
索尼人工智能打败人类顶尖玩家登上《自然》封面
索尼人工智能打败人类顶尖玩家登上《自然》封面。索尼公布了一款由其旗下AI部门开发的人工智能技术,同时它也相应地成为了本周《自然》的“封面人物”,索尼人工智能打败人类顶尖玩家登上《自然》封面。
索尼人工智能打败人类顶尖玩家登上《自然》封面1
还记得前几天索尼预告即将公布的重要AI消息吗?最近,索尼正式宣布,其研究人员已经开发出了一款名为“GT Sophy”的AI车手,可以击败人类顶尖的车手获得冠军。
据悉,索尼对于“GT Sophy”使用了异种称为强化学习的方法进行训练。其本质就是不断的试错,将AI扔进一个没有指令的环境中,达到目标即可获得奖励。
索尼的研究人员表示,它们必须谨慎地设计奖励,譬如微调碰撞惩罚,调整各种目标地优先级,从而保证AI地驾驶风格足够激进,但又不只是在路上欺负对手。
在强化学习的帮助下,AI只需要几小时的训练,就已经适应了赛道飙车。并且在一两天内做到了训练数据快过95%的车手。经过45000小时的总训练,目前AI已经在索尼PS5的《GT赛车》游戏中取得了惊人的成绩,击败顶级人类车手已不是问题。
索尼用AI对三位顶级电子竞技车手进行了测试,没有一个人能够在计时赛中击败AI。而他们也从AI竞赛中学到了新战术,学习AI的路线,掌握更好的入弯时间点。
索尼目前表示,他们正在努力将GT Sophy整合到未来的《GT赛车》游戏中,不过尚没有提供任何具体的时间表。
再结合之前索尼造车的各种消息,这款AI没准还能用在现实世界汽车的自动驾驶技术上,前景可谓十分乐观。
索尼人工智能打败人类顶尖玩家登上《自然》封面2
“我们追求人工智能,是为了最终更好地了解人类。”
作为这个世代中为数不多的拟真赛车游戏,《GT赛车Sport》的玩家们可能从来没有想过,自己玩的游戏,有天会登上世界顶级科学期刊《自然》(Nature)的封面。
在昨天,索尼公布了一款由其旗下AI部门开发的人工智能技术,同时它也相应地成为了本周《自然》的“封面人物”,而这个人工智能的成就,是在《GT赛车Sport》中击败了全球一流赛车游戏选手们。
Nautre第7896期封面
或者,用“征服”这个词来形容更为合适。在索尼演示的四位AI车手与四名职业赛车玩家的对决中,冠军AI的最高圈速比人类中的最优者快了两秒有余。对一条3.5英里长度的赛道而言,这个优势一如AlphaGo征服围棋。
在近五年的研发时间里,这个由索尼AI部门、SIE还有PDI工作室(也就是《GT赛车》开发商)共同研发的AI完成了这个目标。
索尼为这个AI起名为GT Sophy。“索菲”是个常见的人名,源自希腊语σοφ α,意为“知识与智慧”。
Sophy和一般的游戏AI有什么区别?
AI在游戏中打败人类,并不是一件稀奇事。OpenAI在“冥想训练”了成千上万场DOTA2后击败过当时的Ti8冠军OG,谷歌的AlphaStar也曾面对《星际争霸2》的顶级职业选手时表现过碾压态势,而我们每个普通玩家,也都尝过“电脑[疯狂的]”的苦头。
2019年,OpenAI曾经在仅开放部分英雄选用的限制条件下击败过OG
但这些“打败”并非一回事。要明白GTS中的AI车手Sophy意味着什么,首先要明确Sophy和其一个单纯“你跑不过的AI”有什么区别。
对过往赛车游戏里的AI而言,尽管呈现形式都是游戏中非玩家控制的“智能体”,但传统意义上的AI车手通常只是一套预设的行为脚本,并不具备真正意义上的智能。
传统AI的难度设计一般也是依赖“非公平”的方式达成的,比如在赛车游戏中,系统会尽可能削弱甚至消除AI车的物理模拟,让AI车需要处理的环境参数远比玩家简单。
而要塑造更难以击败的AI敌人,也不过是像RTS游戏中的AI通过暗中作弊的方式偷经济暴兵一样,让AI车在不被注意的时刻悄悄加速。
所以对于具备一定水平的玩家而言,赛车游戏里的传统AI在行为逻辑和策略选择上几乎没有值得参考的点,遑论职业赛车游戏选手。
而Sophy则是和AlphaGo一样,通过深度学习算法,逐渐在模拟人类的行为过程中达到变强:学会开车,适应规则,战胜对手。
这种AI带给玩家的,完全是“在公平竞争中被击败”的体验。在被Sophy击败后,一位人类车手给出了这样的评价:“(Sophy)当然很快,但我更觉得这个AI有点超乎了机器的范畴……它像是具备人性,还做出了一些人类玩家从未见过的行为。”
这难免再次让人联想到重新改写了人类对围棋理解的AlphaGo。
相对于围棋这种信息透明的高度抽象游戏,玩法维度更多、计算复杂度更高的电子游戏,在加入深度学习AI之后,其实一直很难确保“公平竞技”的概念。
例如在2019年征战《星际争霸2》的AlphaStar,基本没有生产出新的战术创意,只是通过无限学习人类选手的战术,再通过精密的多线操作达成胜利——即便人为限制了AlphaStar的APM,AI完全没有无效操作的高效率也并非人类可比。
这也是为什么在AlphaStar与人类职业选手的对抗记录里,当AI用“三线闪追猎”这样的神仙表演击败波兰星灵选手MaNa后,并不服气的MaNa在赛后采访中说出了“这种情况在同水平的人类对局中不可能出现”这样的话。
AlphaStar用追猎者“逆克制关系”对抗MaNa的不朽者部队
同样,《GT赛车》也是一款与《星际争霸2》具备同样复杂度的拟真赛车游戏。
在专业赛车玩家的眼中,路线、速度、方向,这些最基本的赛车运动要素都可以拆解为无数细小的反应和感受,车辆的重量、轮胎的滑移、路感的反馈……每条弯道的每次过弯,都可能存在一个绝佳的油门开度,只有最顶级的车手可以触摸到那一缕“掌控”的感觉。
在某种意义上来讲,这些“操纵的极限”当然能够被物理学解释,AI能掌握的范围显然要大于人类。所以,Sophy的反应速度被限制在人类的同一水平,索尼为它分别设置了100毫秒、200毫秒和250毫秒的反应时间——而人类运动员在经过练习后对特定刺激的反应速度可以做到150毫秒左右。
无疑,这是一场比AlphaStar更公平的战斗。
Sophy学会了什么
和Sophy为数众多的AI前辈一样,它也是利用神经网络等深度学习算法来进行驾驶技巧的训练。
Sophy在训练环境中会因为不同的行为遭受相应奖励或者惩罚——高速前进是好的,超越前车则更好;相应地,出界或者过弯时候撞墙就是“坏行为”,AI会收获负反馈。
在上千台串联起的PS4组成的矩阵中,Sophy经受了无数次模拟驾驶训练,在上述学习里更新自己对《GT赛车Sport》的认知。从一个不会驾驶的“婴儿”到开上赛道,Sophy花费了数个小时的时间;一两天后,从基础的“外内外”行车线开始,Sophy已经几乎学会了所有常见的赛车运动技巧,超越了95%的人类玩家。
索尼AI部门为Sophy搭建的“训练场”
然而,赛车并不是一个人的游戏。即便Sophy在去年7月份的比赛中,已经可以没有其他赛车的情况下拥有超出顶级人类选手的计时赛成绩,但在真实的多人游戏中,Sophy还需要学会与对手进行对抗上的博弈,理解其他车手的行为逻辑。
因此,索尼AI部门的科研人员对Sophy进行了更多的“加练”,比如面对其他车时如何插线超车、阻挡卡位。到最后,Sophy甚至还被“教育”到能够理解和遵守赛车运动中的比赛礼仪——比如作为慢车时进行让车,同时避免不礼貌的恶意碰撞。
赛车游戏中的AI车,一般即便会尝试躲避与玩家擦碰,其实现方式也只是不自然地闪躲。而Sophy呈现出的“比赛理解”,都是依靠脚本运行的传统赛车AI无法做到的。
到了10月,Sophy已经可以在正式的同场比赛中击败最顶级的人类选手。
索尼邀请的四位人类车手,其中包括GT锦标赛三冠王宫园拓真
比如第一场在Dragon Trail(龙之径)上进行的比赛。作为《GT赛车Sport》的驾驶学校尾关,每个GTS玩家应该都相当熟悉这条赛道(以及DLC中的“汉密尔顿挑战”)。在数万个小时的训练过后,排名第一的Sophy车手已经可以踩着绝对的最优路线保持全程第一。
而在四个Sophy与四位人类车手角逐的第二个比赛日中,AI们的优势进一步扩大了——几乎达成了对顶级人类玩家的碾压。
如果只是在路线的选择和判断上强过人类,用更稳定的过弯来积累圈速优势,这可能还没什么大不了的。
但研究者们认为,Sophy几乎没有利用在用圈速上的绝对优势来甩开对手(也就是AI身为非人类在“硬实力”上更强的部分),反而在对比赛的理解上也超过了人类玩家,比如预判对手路线的情况下进行相应的对抗。
在《自然》论文所举的案例中,两名人类车手试图通过合法阻挡来干扰两个Sophy的首选路线,然而Sophy成功找到了两条不同的轨迹实现了超越,使得人类的阻挡策略无疾而终,Sophy甚至还能想出有效的方式来扰乱后方车辆的超车意图。
Sophy还被证明能够在模拟的萨尔特赛道(也就是著名的“勒芒赛道”)上执行一个经典的高水平动作:快速驶出前车的尾部,增加对前车的阻力,进而超越对手。
更令研究者称奇的是,Sophy还捣鼓出了一些非常规的行为逻辑,听上去就像AlphaGo用出新的定势一样。通常,赛车手接受的教育都是在过弯时“慢进快出”,负载只在两个前轮上。但Sophy并不一定会这么做,它会在转弯时选择性制动,让其中一个后轮也承受负载。
而在现实中,只有最顶级的'F1车手,比如汉密尔顿和维斯塔潘,正在尝试使用这种三个轮胎快速进出的技术——但Sophy则完全是在游戏世界中自主学会的。
曾经取得三次GT锦标赛世界冠军的车手宫园拓真在与AI的对抗中落败后说,“Sophy采取了一些人类驾驶员永远不会想到的赛车路线……我认为很多关于驾驶技巧的教科书都会被改写。”
“为了更好地了解人类”
区别于以往出现在电子游戏中的先进AI们(比如AlphaStar),Sophy的研究显然具备更广义、更直接的现实意义。
参与《自然》上这篇论文撰写的斯坦福大学教授J.Christian Gerdes就指出,Sophy的成功说明神经网络在自动驾驶软件中的作用可能比现在更大,在未来,这个基于《GT赛车》而生的AI想染会在自动驾驶领域提供更多的帮助。
索尼AI部门的CEO北野宏明也在声明中表示,这项AI研究会给高速运作机器人的研发以及自律型驾驶技术带来更多的新机会。
Sophy项目官网的介绍
但如果我们将目光挪回作为拟真赛车游戏的《GT赛车》本身,Sophy的出现,对大众玩家和职业车手而言同样具备不菲的意义。
正如文章前面所说,在目前市面上大多数拟真赛车游戏中,“传统AI”已经是一个完全不能带给玩家任何乐趣的事物。这种依赖不公平条件达成的人机对抗,与赛车游戏开发者希望带给玩家的驾驶体验是相悖的,人类玩家也无法从中获得任何教益。
在索尼AI部门发布的纪录片中,“GT赛车之父”山内一典就表示,开发无与伦比的AI可能是一项了不起的技术成就,但这对普通玩家来说可能不是什么直白的乐趣。
因此,山内承诺在未来的某个时候,索尼会将Sophy带入到三月份即将发售的《GT赛车7》中。当Sophy能够更加了解赛场上的环境和条件,判断其他车手的水平,一个这样智能又具备风度的AI,就能够在与人类比赛时,为玩家提供更多真实的快乐。
在拟真赛车游戏逐渐“小圈子化”,众多厂商都做不好面对纯新玩家的入门体验的今天,或许一个AI老师的存在,有机会能给虚拟世界中的拟真驾驶带来更多的乐趣,就像《GT赛车4》的宣传片片头所说,“体验汽车生活”。
这可能才是一个基于游戏而生的AI能为玩家带来的最重要的东西——如同山内一典对Sophy项目的评论, “我们不是为了打败人类而制造人工智能——我们追求人工智能,是为了最终更好地了解人类。”
索尼人工智能打败人类顶尖玩家登上《自然》封面3
据路透社伦敦2月9日报道,索尼公司周三说,它创造了一个名为“GT索菲”的人工智能(AI)代理,能击败《GT赛车》——PlayStation平台上的模拟赛车游戏——中全球最优秀的车手。
该公司在一份声明中说,为了让“GT索菲”为这款游戏做好准备,索尼公司的不同部门提供了基础人工智能研究成果、超现实真实世界赛车模拟器,以及进行大规模人工智能训练所需的基础设施。
报道称,去年7月,该人工智能首次与《GT赛车》的四名顶尖车手展开了较量,它吸取了这次比赛的经验,并在当年10月的另一场比赛中战胜了人类车手。
这款人工智能的设计团队领导者、索尼人工智能美国公司负责人彼得·沃尔曼说:“我们用了大约20台PlayStation游戏机,同时运行大约10到12天,才训练‘GT索菲’从零开始达到超人类水平。”
报道指出,虽然人工智能曾在国际象棋、麻将和围棋比赛中击败人类,但索尼公司说,掌握赛车驾驶技术的难点在于,许多决定是必须实时做出的。
据报道,索尼的竞争对手微软公司最近斥资近690亿美元收购了动视暴雪公司。微软一直在利用游戏来改进人工智能,其方式是不断为人工智能模型提供新挑战。
报道称,《GT赛车》是一款模拟赛车电子游戏,1997年问世,已售出8000多万套。
索尼希望将学习到的东西应用到其他PlayStation游戏中。该公司说:“有很多游戏可以对人工智能构成不同挑战,我们期待开始解决这些问题。”