本篇文章3572字,读完约9分钟
埃隆·马斯克缩短了未来和现在之间的距离。他的spacex成功完成了Tai/きだよ 0号的探索任务,特斯拉也在电动汽车行业发挥了关键作用。因此,当马斯克谈论未来时,人们总是会倾听。这就是为什么他最近关于人工智能的评论吸引了如此多的注意力。
马斯克的行为不断升级,在向人工智能的研究方向泼脏水方面超重。就在最近,他将目前对人工智能的研究描述为“召唤恶魔”,并将电影《2001泰·空漫游》中的超级计算机hal9000伪装成一只小狗,并将其与未来的机器人相比较。前一段时间,他解释说,他参加了deepmind,一家人工智能公司,因为他渴望关注可能的终结者情况的进展。总的来说,这种言论弊大于利,尤其是对马斯克的铁杆粉丝而言。
从根本上说,马斯克的言论已经被大肆宣传。当这种负面宣传涉及具体的研究工作时,将会产生非常消极和有害的后果。正如加里马库斯(gary marcus)去年在《纽约客》(new yorker)杂志的一篇特别报道中所说,在过去的几十年里,公众关注热点的反复无常、猜测的蔓延以及研究先驱的相继放弃一直困扰着人工智能的研究。这一现象被称为“人工智能的冬天”——研究人员在烧尽投资后无法信守在媒体上发表的承诺,这一过程在人工智能的历史上一再出现。
正如丹尼尔·克雷维尔(加拿大企业家、人工智能和图像处理专家)在1993年一本关于人工智能历史的书中所描述的那样,也许人工智能研究中最臭名昭著的宣传(即人工智能将战胜人类的宣传)发生在20世纪70年代。当时,美国国防部高级研究计划局(darpa)资助了许多类似的项目,但最终结果没有达到预期。
facebook人工智能实验室的负责人Yann lecun去年在Google ++上总结道:“一些虚假宣传对人工智能非常危险。”在过去的50年里,由于虚假宣传,人工智能已经衰退了四次。对人工智能的大肆宣传必须停止。”如果我们不能在五年内制造出一辆功能齐全的自动驾驶汽车,它会对这个领域产生什么影响?因此,忘记所谓的终结者,我们应该重新考虑如何谈论人工智能。
马斯克对人工智能的尖锐评论只会误导那些不如他熟悉人工智能的人。事实上,我们最聪明的人工智能产品只有一个蹒跚学步的孩子那么聪明,这仅限于处理一些需要外部帮助的任务(比如信息回忆)。大多数机器人专家仍然试图让机器人在奔跑时捡起一个球而不掉下来,这似乎离天网的最终结果有10万英里远。
事实上,欧盟的人脑项目和美国的大脑倡议已经花费了巨额资金,希望找到人脑的“数字地图”,但在中国还有很长的路要走,支持研究成果的大部分技术仍处于研发阶段,例如能够更好扫描大脑的纳米生物传感器。当然,这并不是说这些研究完全没有意义,但这项工作肯定是有意义的,这些研究并没有向公众宣传所谓的恐惧。
“当我们听到这些关于人工智能的令人恐惧的事情时,感觉就像那种源于外星人和科幻小说的恐惧。外星人的智商比我们高三倍。”纽约伦斯勒理工学院人工智能实验室主任塞尔默·布林约尔德告诉我,“政府支持的人工智能研究人员也开始在电影情节中制造这种恐惧。这与我现在正在做的研究无关,而是一种更深层次的、非理性的恐惧。”
以马斯克和霍金为代表的这些人最害怕的是人工智能带来的“生存风险”,生存风险是指那些威胁整个人类发展或彻底毁灭我们的风险。这个术语最早是由牛津大学未来学院(fhi,oxford)的院长尼克·博斯特罗姆(nick bostrom)在2001年提出的,从那以后就一直流行。马斯克是博斯特罗姆最新著作《超级智慧》的粉丝。
牛津大学人类未来研究院的科学家丹尼尔·杜威说,“风险”可能是战争、财富分配不均、自然灾害和恶意的人工智能。有一个明显的事实,麝香是不清楚的,至少没有表达出来。与其他风险不同,有必要单独对待人工智能带来的风险,因为目前对这种风险的讨论在很大程度上是推测性和哲学性的,没有统一的路径可循,这些推论的正确性只能在遥远的将来得到验证。即便如此,在人类未来研究院研究人员眼中,“智能爆炸”只会在机器突然拥有意想不到的智能时出现。
“我认为我们应该足够重视我们目前未知程度的人工智能风险。”杜威说:“我们目前对人工智能的评价主要是可能性的讨论,而不是严格的计算。例如,虽然我们可以谈论智能爆炸的可能性,但我们不能100%地确认这种可能性,也不能预测它何时会发生。
和霍金一样,马斯克认为相关的监督委员会应该开始监督人工智能的发展,以免我们做一些“非常愚蠢”的事情,比如制造一个可以杀死我们的机器人。但是我们对此有严重的怀疑。一个负责颁布公共政策的人工智能委员会在这个时候能做什么?诚然,正如华盛顿大学法学院教授瑞安·卡洛(ryan calo)所建议的那样,为已经拥有一定智能的机器人制定一套规则是有益的,比如我们已经拥有的自动驾驶汽车、无人机杀手和战争机器人。但对于那些仍然遥不可及的强大人工智能来说,这完全是另一回事。
“危险会非常严重。在某些特定的情况下,人工智能可能会做出错误的决定。例如,自动驾驶汽车只会考虑更现实和直接的风险,就像最近众所周知的道德困境。因此,当崩溃成为最现实和可靠的选择,机器会毫不犹豫地这样做。”
“我认为人工智能是一个数学和工程问题,而不是一个公共政策问题。”布林约尔德坦率地说,“如果我们成立一个委员会,我们应该把重点放在人工智能的工程方面。”
布林约尔德认为,在引入公共政策之前,我们应该从优秀的工程设计中标准化人工智能的潜在社会弊病。这不仅是因为人工智能刚刚上路,还因为严格的设计过程可以减轻计算机程序的缺陷。
解决这一问题的方法之一是恢复对正式软件认证的研究。他说,正式的认证可以准确地检测程序的缺陷和潜在错误,并将故障的风险降低到几乎为零。过去,随着资金的减少,这一领域的研究活动一度消失,但darpa已经开始以开源和众包的形式重新开放这项研究。
布林约尔德告诉我:“与这样的监管委员会相比,我们更愿意为那些有能力进行必要工程设计的人买单。”“就像新奥尔良的洪水一样,众所周知,工程师们已经向我们详细解释了如何保护新奥尔良免受洪水的袭击——但是其他人认为这个计划太昂贵了。因此,从本质上讲,鲁莽小气的行为才是真正的威胁,而不是人工智能。
然而,高级人工智能固有的潜在危险似乎是马斯克关注的焦点。技术面临毁灭的风险。这个黑色的预言不仅捏造了人工智能在可预见的未来真正能做什么,还混淆了现在关于人工智能的讨论。
例如,科技发展导致的失业。在资本控制下的人工智能和便携式机器人的研发正在彻底改变世界,取代无数的劳动者,并且无法显示任何未来的进步。随着无人机技术的不断进步和应用范围的不断扩大,军用机器人可以在没有强大人工智能支持的情况下自行完成杀伤任务,这已经成为一个极具争议的话题,但是那些呼吁停止这种研发的组织却被直接忽略了。
事实上,我们不需要这样的技术突破——人工智能变得和人类一样聪明,因为我们的世界将不可避免地被机器和软件所改变,无论好坏。这并不是说我们不应该考虑先进人工智能的未来应用,而是应该更加负责任,尤其是面对公众的时候。
马斯克的言论在恰当的时候为媒体炒作火上浇油,也加剧了这种未经证实的担忧,这种担忧只是夸大了一项仍处于初级阶段的技术,不管它的日常进步有多令人印象深刻。自动驾驶汽车、智能安全检查员、机器人同事...这些可能性令人恐惧,但也很奇妙。这是我们的未来,人工智能永远不会让它疯狂。
这篇文章是作者独立的观点,并不代表老虎嗅探网络的立场
向作者提问并加入语料库
三链:吃昆虫、吃厕所和油炸??3.模纸锻造,模具模具模具模具模具模具模具模具模具模具模具??. 95镣铐和镣铐??0.07%锝58.....
当前流行度:0
[娇娇]http://itougu.jrj/view/189514.j.....
当前流行度:0
1.1 .涓涓细流??邦邦、邦邦、邦邦、交邦和廖廖??要坚强,要坚强。.....
当前流行度:0
你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道,你知道........
当前流行度:0
缇落入三条锁链??3镝??6铥??0(乌桕脂含有3条链吗??4镝??4铥??0)死,死,死,死又死,4.72??......
当前流行度:0
那墙,墙,墙和墙呢??钳子里有丰富的镰刀、叉子、叉子、nan和链条,这些都是銮棒的来源.....
当前流行度:1
你想挑起镝,破坏哮喘吗??缇,汤,汤,3汤和柊镶嵌??链条??4."敌鲁,缇,汤,汤,汤."??.....
当前流行度:0
咸丰、大树、细垴、十二寸、相互涓涓??环秀细链,涓涓细流,砸铙钹,甩铙钹,砸铙钹,砸铙钹,砸响,砸得咝咝作响??葛格·岳格·柊.....
当前流行度:0