首页 热点趣闻文章正文

人工智能专业人士对这项技术调查越来越感到不安

热点趣闻 2025年03月19日 15:43 16 admin

  

  

  人工智能影响研究项目、波恩大学(University of Bonn)和牛津大学(University of Oxford)的一项新调查显示,人工智能专业人士对近年来该技术的迅速发展越来越感到不安。

  这项调查涉及2778名来自行业出版物和论坛的撰稿人。一个重要的发现是:10%的人担心机器在三年内会在所有任务上超越人类的能力,50%的人认为到2047年这种情况很可能发生。

  研究人员写道:“虽然乐观的情景反映了人工智能有可能彻底改变工作和生活的各个方面,但悲观的预测——尤其是那些涉及灭绝级别风险的预测——却鲜明地提醒人们,人工智能的开发和部署涉及的高风险。”

  参与者被要求估计39项人工智能任务何时“可行”,即顶级人工智能实验室何时可以在一年内实现这些任务。任务范围从翻译新发现的语言到从零开始建立一个支付处理网站。在未来十年内,除了四项任务外,其他任务的可行性至少有50%的可能性。

  该调查还探讨了实现高级机器智能(HLMI)和全自动化劳动(FAOL)的时间表。HLMI的定义是,无人辅助的机器可以比人类更好、更便宜地完成任务。当机器能够比人工更高效、更经济地完全自动化某项职业时,人工智能就会到来。与会者估计,到2047年实现高水平人工智能的可能性为50%,比调查预测的2022年提前了整整13年。到2116年,劳动力完全自动化的可能性将达到50%,比之前的预测提前了48年。

  卡内基梅隆大学(Carnegie Mellon University)人类+人工智能设计计划(Human+AI Design Initiative)主任克里斯·麦库姆(Chris McComb)没有参与这项研究,他在接受采访时表示,到2037年,所有人类职业都“极不”可能完全实现自动化。

  麦库姆说:“这里有两种相互竞争的力量在起作用——日常人的适应性和人工智能经常在新情况下挣扎的事实。”幸运的是,这个世界充满了新奇的情况!当人工智能成为一个更熟练的问题解决者时,人类将成为越来越重要的问题构建者,找到将新情况转化为熟悉的构建模块的方法。

  “在我们的研究中,我们已经开始看到这一点,”他说。“当我们将人类和人工智能团队组合在一起时,团队中的人类成员通过帮助人工智能代理适应他们自己无法处理的新场景而发挥重要作用。我们称他们为‘人工智能处理者’。”

  伦斯勒理工学院(Rensselaer Polytechnic Institute)人工智能与推理实验室主任Selmer bringsord也对这一时间表持怀疑态度。但他在接受采访时表示,到2050年,科技经济体中绝大多数由人类从事的工作可能完全由人工智能来完成。

  他补充说:“要了解原因,一个有效的方法就是看看交通领域的工作,并把这个领域作为代表。”“如果一件物品需要从印度班加罗尔运送到阿迪朗达克公园(Adirondack Park)的一个偏远湖泊,而这件物品现在在印度的一户人家……嗯,执行这个过程的每一寸都将由人工智能完成。这意味着没有人类(机器人),没有司机(自动驾驶汽车),没有飞行员(自动驾驶飞机和无人机)等。盒子就在湖上小屋的前门外,安然无恙,无需人类就能完成。

  “这将在2050年到位,这是毫无疑问的,”布林斯佐说。

  该调查要求参与者评估到2043年某些人工智能特征出现的可能性。大多数人认为,在未来20年内,基于人工智能的工具将找到意想不到的方式来实现目标(82%),能够在大多数主题上像人类专家一样交谈(81%),并且经常以人类惊讶的方式行事(69%)。此外,早在2028年,许多人预计人工智能将经常让人类感到困惑,无法辨别系统输出背后的实际原因。

  调查中还出现了对人工智能可能被滥用的严重担忧。这些担忧包括人工智能被用来通过深度造假来制造和传播虚假信息,操纵大规模公众舆论,使危险团体能够开发病毒等强大工具,并协助威权政权控制其人口。

  接受调查的专家对人工智能安全研究的重要性达成了强烈共识,对人工智能的影响看法不一:超过三分之二的受访者(68%)认为人工智能的好处大于坏处。但至少有大约58%的人看到了严重有害后果的可能性。人们对风险的看法因问题而异:大约一半的人认为,人工智能导致人类灭绝或严重丧失权力的可能性超过10%。十分之一的参与者估计,至少有25%的可能性发生灾难性后果,包括人类灭绝。

  尽管如此,麦库姆仍然是持乐观态度的人之一。

  “长期以来,人类一直在利用强大的力量,从火到原子分裂,”他说。“关键在于利用工程和设计的原则,有效而安全地驾驭这些力量,‘设计远离’破坏性的潜力,走向有益的生产。”人工智能不是一个可怕的威胁,而是一种可以使用的设计材料。”

  相反,布林斯剑是悲观主义者之一。他描述了付费问题,这是他自己的一个理论,他将其定义为通过确定权力、自治和智能的水平来衡量给定的人工智能或一组人工智能的危险或潜在破坏。他指出,聊天机器人具有相当高的自主性;很快,随着他们考虑的数据接近地球上所有可用的数据,这种自主性将会增强。

  “我不认为我们在这里谈论的是人类层面的‘自由意志’,也没有真正的创造力(这大概需要最大程度的自主权),但未来的自主程度将是极端的。幸运的是,权力完全是另一回事。

  “除非所有高科技的开放市场民主国家都追求和应用某些科学和工程,否则未来强大、自主和智能的人工智能最终将构成严重的危险,并可能最终摧毁我们。”

发表评论

大渡口鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ: