快移民外星! 霍金预言地球200年内毁灭
视频点评:
像素大战:说你自己白痴把,地球能够永远住下去吗? //@67872694:我只能说他是白痴,好好的地球不住,跑去改造火星,吃饱撑了,
阿坤83126537:人类只适合外地求生存,否则外星球早有另一个"人类了"
ICU病房抢救中:你不知道现在火星移民计划已经开始了吗 //@67872694:我只能说他是白痴,好好的地球不住,跑去改造火星,吃饱撑了,
refuseryy:我
sl369571:各位,我们还是想想下一顿饭怎么找吧
夏日风情光:不一定,看我们态度,态度不好的话就成现实了。
jack9594:200年内灭亡?在座的各位。有没有人能活过150岁的?没有是吧,所以你们就别瞎操心了。赶紧洗洗,早点睡吧。。。
猪是的念来过倒TB:地球每3000万年都会有一次灾难,而这次的3000万年也“指日可待”。因为太阳系没3000万年会经过恒星密集区,所以行星“碰碰车”还是挺可怕的
sk43tl23:看来霍金200年后还想火一把。。。混个历史骗子的称号
616818671:这场游戏快要结束,过关的条件达不到要求。
精彩内容:
近日,英国理论物理学家霍金语出惊人,预言人工智能科技如果不加控制地发展,将超越人类智能,并控制或灭绝人类。无独有偶,牛津大学哲学教授、人类未来研究所创建者博斯特罗姆近日也指出,超级人工智能是人类未来最大的存在风险,其风险性高于自然灾害、环境恶化、流行疾病。
两位英国学者的观点是否合理?人工智能会不会发展到人类无法驾驭的超级智能阶段?记者采访了研究人工智能哲学的复旦大学哲学学院教授徐英瑾。
图灵为人工智能设立标准
徐英瑾介绍,人工智能学科缘起于一篇经典论文和一次重要会议。
1950年,英国数学家、逻辑学家、计算机科学理论奠基人图灵在《心智》杂志发表论文《计算机器和智能》,提出了著名的“图灵测试”——如果一台机器能够与人展开对话(通过电传设备),并且会被人误以为它也是人,那么这台机器就具有智能。
显然,这是一个带有行为主义色彩的“人工智能”定义,因为该定义没有从机器内部机制着手,而是通过其外在行为来判断它是否具有智能。其好处是,绕开了“智能的本质”这个众说纷纭的问题,给人工智能发展设定了一个目标:开发出能通过图灵测试的机器。
1956年,一群学者在美国达特茅斯学院参加会议,探讨如何利用问世不久的计算机实现人类智能。会议筹备期间,后来获得计算机科学最高奖——图灵奖的麦卡锡提议用“Artificial Intelligence”(人工智能)一词来称呼这门新兴学科,得到了与会者认同。在这次会议上,学者们讨论了如何在人类智能水平上实现机器智能,而不是用特定算法解决一些具体问题。举个例子,IBM公司研制的“深蓝”计算机能够在与国际象棋世界冠军卡斯帕罗夫的对弈中胜出,但并不能由此认为“深蓝”拥有了超级人工智能。这是因为,它只是在某个方面的能力上超过人类,而且无法通过图灵测试。
如果霍金担心的超级计算机有朝一日问世,那它必定在综合思维能力上超出人类,这样才可能拥有“僭越”的想法,以及控制或消灭人类的能力。
霍金警示的风险理论上存在
值得“庆幸”的是,目前,人工智能的全球领先水平与超级人工智能相去甚远。学术界普遍认为,世界上还没有机器能通过图灵测试。
对于这一现状,有三种回应观点——
第一种观点是:图灵、司马贺等人工智能学科元老提出的全面模拟人类智能的想法,太好高骛远。这种玄想或许在未来会成真,但目前为实现这个想法做研究,纯属浪费精力。业界目前应做一些踏实的人工智能研究,满足于制造解决特殊问题的求解器。徐英瑾发现,许多人工智能业内人士持这一观点。由此可见,霍金的警告有点杞人忧天的味道。
第二种观点是:全面实现人类智能的机器是不可能造出来的,就像造不出永动机一样。学者们提出过多种论证,试图从哲学、逻辑层面论证这种不可能性,其中非常著名的有美国哲学家塞尔提出的“汉字屋论证”(也称“中文房间思想实验”)以及英国理论物理学家、数学家彭罗斯提出的“从哥德尔不完备性定理出发的论证”,但这些论证都遭到了学术界反驳。徐英瑾认为,“汉字屋论证”和彭罗斯的论证都是站不住脚的,超级人工智能并没有在理论上“被判出局”。
第三种观点与第一种有相近之处,认为全面实现人类智能的机器是能够造出来的,但难度很大。如果当下的人工智能研究路子不改变,那么点滴成果的积累也未必能质变为全面突破。“我持这种观点。”徐英瑾说,“所以我认为霍金、博斯特罗姆警示的风险从理论上来说是存在的,但在未来相当长时间内不会成为现实。”
大数据技术有先天缺陷
在这位复旦学者看来,如今十分热门的大数据技术,一旦过度应用于人工智能领域,就是一条错误的路子。
大数据技术催生了数据科学。与传统的科学研究范式不同,数据科学不再追求因果关系,而是按照“样本=总体”的思路对海量数据进行深入挖掘和统计分析,寻求各个事物间的相关性。很多时候,大数据统计出的是“2+2=3.9”这类近似结果,精确度上的略微损失,换来了对事物间相关关系的准确预测。
徐英瑾认为,大数据分析是西方经验论哲学在当代的一种表现形式。近代西方哲学分为两大流派:经验论和唯理论。经验论认为,人的感性经验是一切知识和观念的唯一来源;唯理论与之针锋相对,认为具有普遍必然性的知识并非来自经验,而是来自人与生俱来的理性。大数据研究范式推崇海量数据的采集,那些用于数据采集的摄像头、传感器等设备好比人类感官的延伸;还推崇大样本的统计学分析,用它取代因果分析。这种看重经验采集、贬低理性推理的模式背后,正是经验论哲学观。
就像经验论有其局限性一样,大数据分析也有局限。以基于大数据技术的“谷歌翻译”为例,这种人工智能系统的研发团队没有通过编程定义语法规则,因为完善的语法编程目前还无法实现。他们采用的主要技术方案,是利用大数据统计不断调整翻译结果的相关性,优化翻译结果。这样做的好处是,翻译系统会随着数据的积累而不断改善。但目前,使用“谷歌翻译”的结果只能帮助人们大致理解陌生语言,有时候得到的翻译结果很不通顺。“大数据翻译系统缺少深层语法结构,这种结构好比唯理论看重的先天理性,缺少了它,人工智能系统就无法译出完善的自然语言。”徐英瑾说。
而让机器“说”出人们在日常生活中说的自然语言,正是图灵测试所要求的。在人工智能领域,“自然语言处理”占有重要地位,已发展成一个相对独立的研究领域。苹果手机的Siri、上海企业开发的小i机器人,都是应用自然语言处理技术的人工智能产品。有兴趣的读者可以对 Siri 和小 i 机器人进行图灵测试,看看它们的回答是否像人。
让机器人服从“绝对命令”
在好莱坞电影《梯阵阴谋》中,美国国安局设置的超级计算机Echelon(梯阵),能通过调取、分析每个公民的各类信息,进行行为监控,还可以向人们的手机发送短信,达到不可告人的目的。
这种超级人工智能如果在未来成为现实,人类社会将毫无隐私可言。影片结尾,找到Echelon的男主角向它提问:你的宗旨是什么?Echelon的回答是“保护美国公民的自由权益”。经过一番人机对话,这台计算机“幡然悔悟”,将自身的监视程序删除了。
博斯特罗姆认为,科幻电影和小说中常见的自毁程序桥段,并不是解除超级人工智能威胁的最佳方案。他指出,“我们并不是要永远抑制超级智能,或不开发行动自由的超级智能。”计算机程序的“动机选择问题”必须得到解决。一种解决方案是将机器的目标模糊化。例如,如果想要它帮助医生治疗某种疾病,可以将目标设为“做有利于人类健康的事”。另一种解决方案是使人工智能更人性化,为其编入同情和利他主义程序。
这两种方案,都与科幻小说家阿西莫夫提出的“机器人三定律”相通。三条定律分别是:第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一和第二法则的情况下,机器人必须保护自己。“这堪称机器人版的‘绝对命令’学说。哲学家康德提出的‘绝对命令’要求,人应该在任何情况下把自己和他人当作目的,而非手段。”徐英瑾评论道,“未来出现超级人工智能后,应将这种机器人伦理以立法形式确立下来,防止疯狂的科学家开发出旨在控制甚至毁灭人类的机器。”
网友点评:
网友:人类为什么就要害怕这样害怕哪样?
网友:有些孩子过马路怕车,有些孩子过马路胡乱跑,因为他们看到的、想到的不一样!
猎人▄︻┻┳═一∵∴(∵_,∵)>>:碳元素是构成生命的基本原素,如果宇宙中还有一种原素可形成生命的话,那就是同碳最相近四价的硅,人类满宇宙的去寻找生命,而忽略了身边,新的生命正在人类中孕育。
相关图片:
↑图:霍金预言地球灭亡将近
↑图:霍金预言:霍金预言地球或毁灭人类移民火星征服
↑图:霍金预言地球200年内毁灭未来_霍金未得病前的照
↑图:霍金预言人类将移居火星
↑图:古稀之年霍金大预言(图)
↑图:霍金预言地球将灭亡引热议霍金预言称人类将移
↑图:霍金预言人脑可独立人体存在可被拷贝至电脑-中
↑图:霍金预言:人类必须逃离地球
↑图:中国学者回应霍金预言
↑图:霍金预言地球将在200年内毁灭-搜狐女人