【智网文摘】智利人工智能的最大风险并非末日而是为时已晚

2026-04-12

20260411

来自智利大学新闻网Uchile的报道:

原文参见:https://uchile.cl/noticias/238682/el-mayor-riesgo-de-la-ia-para-chile-no-es-el-apocalipsis-es-llegar-tarde

人工智能的未来既令人兴奋又令人不寒而栗。如果人工智能的进展保持近几年的步伐,那么要对末日情景的可能性做出预测是极其困难的。

然而,在这场辩论中,我们持乐观态度。我们总是将人工智能视为一种有许多局限性的工具。人工智能存在于医学领域,帮助更快速、更精确地诊断疾病;存在于社会科学领域,分析大量数据以理解人类行为;也存在于艺术领域,创造出挑战我们对创造力认知的作品。在知识的每个角落,人工智能都有潜力成为一项革命性的工具。

首先要分析的一点是,我们在不久的将来拥有真正智能的人工智能的可能性有多大。人工智能超级智能指的是一个假设的未来,届时机器能够像人类一样出色地执行所有任务。在那个被称为奇点的时刻,人工智能可能会自主创造新技术并取得进展。

虽然目前尚不清楚假设的奇点会是有益的还是灾难性的,但似乎存在某种共识,即我们离那个时刻还很遥远。从历史上看,人工智能的推理解释等人类特质一直被夸大。这导致了误解和不切实际的期望,并部分造成了20世纪60年代和90年代的两次人工智能寒冬。每一次进步都会重新点燃关于超级智能的辩论,但其实现需要方法论上的突破,而这些突破似乎并不临近。

我们喜欢将当前的人工智能视为优秀的演员,它们模仿推理、共情、激动,甚至激发灵感来创作优美的交响乐或艺术品。如果提问者无法分辨自己是在与人类还是人工智能对话,这并不意味着人工智能是智能的或在思考,而只是说明它在模仿人类行为方面是一位出色的演员。

然而,这种情况可能会改变。最近基于智能体的人工智能进展表明,将能力有限的人工智能进行串联,可以基于思维链(Chain of Thought, CoT)方法实现复杂的推理过程,该方法将复杂的任务分解为一系列通向最终解决的逻辑步骤。科学家和人工智能开发人员正前所未有地致力于让机器进行推理,因此这条路线的未来是不可预测的。

我们不需要超级智能来想象末日情景;更貌似有理的情况是,它们源于技术落入坏人之手,而非机器反抗其创造者。核能说明了基础研究的进展如何能转化为武器。诺贝尔物理学奖得主约翰·霍普菲尔德(John Hopfield)就利用这个例子警告如果不加以控制,人工智能可能带来的灾难性风险。在一封由知名专家签署的公开信中,人们呼吁暂停开发六个月。

尽管人工智能的进展旨在寻求积极和商业应用,但这并不排除末日情景的可能性。例如,今年获得诺贝尔化学奖的、应用于蛋白质分析的同一技术,也可能被用于设计具有更大流行病潜力的病毒。应用人工智能技术,可以分析可能增强病毒逃避免疫反应能力的突变。

鉴于主要的人工智能进展是由寻求盈利的大公司或学术界主导的,末日情景的风险相当低。鉴于末日无利可图,主要人工智能进展背后的大公司将尽一切努力避免这些情景。

最后,一个相当可能的情景是,从现在起进展会慢得多,这给了我们时间进行调整和从容地采用技术。让我们记住,那封著名的公开信已经发布两年多了,尽管人工智能研究仍在继续,但我们并未经历那封信所警告的风险。

虽然像Meta这样的大公司主导了2024年被引用最多的人工智能论文,但无法将这些进展转化为利润,给实现几乎不切实际的期望带来了巨大压力。像OpenAI这样的公司处境艰难,甚至有人猜测其可能破产。

环境影响以及政府在数据隐私、偏见和潜在危害等问题上的监管可能会猛烈地遏制所谓的炒作,甚至将我们带入新的人工智能寒冬。

新的人工智能寒冬并不是一个让我们害怕的情景。企业采用新技术是一个缓慢的过程,充满了激动人心的挑战。无论进展速度如何,我们还有很多事情要做。

接下来,我们将讨论一些我们认为对该国人工智能发展至关重要的具体要点:

聚焦多模态学习

最近生成式人工智能的进展一直集中在多模态方法上,这为企业界开辟了令人兴奋的机遇。不久的将来,商业分析将朝着创建全面的客户档案方向发展,结合社会人口统计数据、购买历史以及与企业的所有互动,如投诉、社交媒体沟通或联络中心的互动。这些高级档案将能够提供更精确和个性化的推荐,从而促进与客户建立更有利可图、更有意义和更持久的关系。

可定制和基于智能体的聊天机器人

新一代的客户不想接到电话,他们希望通过互联网以与其他领域相同的方式解决与企业相关的问题。人工智能智能体将彻底改变消费者服务,拥有更有效的机器人来回答客户的疑问,从企业文件中检索相关信息,并生成符合每位客户需求的个性化优惠。

生成式人工智能的第二波浪潮将是视频

深度学习之父之一杨立昆(Yann LeCun)特别强调,大型语言模型(LLM)在拥有世界概念的能力方面受到限制,因此不会让我们接近超级智能。相反,他认为视频是一种数据源,能够在不远的将来推动我们朝着创造真正智能的机器迈进。由于处理成本的原因,基于视频的人工智能面临着比其他来源更多的限制,这减缓了进展。

人工智能虚假信息将无处不在,我们将习以为常

政治和其他时事议题上的虚假信息问题,确实是人工智能带来的一个巨大劣势。然而,我们将逐渐习惯于信任某些来源而怀疑其他来源。虽然生成式人工智能虚假信息和用于社交媒体的自动化信息传播算法将继续造成社会问题,但随着社会获得处理此类内容的经验,这些问题将得到缓解。

可解释和安全的AI进展

可解释人工智能(eXplainable AI, XAI)是一个关键的研究领域,由于监管压力,未来将继续强劲发展。该领域允许理解和解释人工智能模型如何做出决策,打开黑箱。透明度和可解释性在商业领域对于建立信任和遵守法规至关重要。此外,XAI有助于检测模型中的偏见,提高自动化决策的安全性,并促进在关键环境中采用人工智能。另一方面,隐私保护深度学习(Privacy-Preserving Deep Learning, PPDL)解决了开发保护数据隐私的人工智能模型的需求。诸如联邦学习之类的技术允许在不损害用户敏感信息的情况下训练模型。这在数据高度机密的环境中至关重要,例如银行、医疗和政府。

人工智能的民主化

商业模型和开放源代码模型(如MetaDeepSeek创建的模型)之间的当前竞争,将显著降低应用生成式人工智能的成本。此外,随着越来越多的人接受使用这些工具进行商业活动的培训,并且公司内部有更多成功实施这些技术的案例,知识也将得到普及。

人工智能作为国家优先事项

美国或中国等国已将人工智能作为国家优先事项,以至于关于人工智能的地缘政治风险(民主国家与威权政权对人工智能的控制)的讨论,正在掩盖关于生存风险和末日情景的讨论。

谈及人工智能的风险,我们认为,对智利而言,最大的风险在于在这场盛宴中迟到。如果我们希望作为一个国家保持竞争力,就必须保持灵活和敏捷,同时也要认识到,绝大多数人工智能的应用都是正确的,即用于医学和可持续发展等积极目的,或专注于商业领域。迟到意味着加剧国家间的不平等,将它们划分为技术创新者和单纯的技术买单者。作为一个国家,我们可以自豪地向该地区出口此类开发成果,而且,如果得到适当的推动,我们甚至可以在拉丁美洲的竞赛中处于领先地位。

人工智能的伦理挑战

人工智能正在改变各行各业并创造竞争优势,但其采用不仅意味着利益,也伴随着伦理责任。确保人工智能的使用透明、公正和负责任至关重要。以下是企业人工智能面临的主要伦理挑战:

算法偏见:如果不控制数据中的偏见,模型可能会加剧不平等,因此需要持续监控以确保决策的公平性。

隐私与数据保护:由于人工智能处理大量敏感信息,必须确保合规性和知情同意。

可解释性与透明度:这不仅仅是关于人工智能能否运行,还在于它能否被解释以建立信任。黑箱模型会给企业带来法律和声誉风险。

对就业的影响:人工智能取代了一些任务,但也创造了新的机会;在这里,通过再培训计划让工人做好准备至关重要。

可持续性:人工智能模型需要消耗大量能源,因此必须优化其效率并寻求更可持续的替代方案。

随着人工智能的不断发展和可能的监管变化,这些方面将变得越来越重要。随着人工智能法规变得更加严格,未雨绸缪将变得至关重要。整合负责任的人工智能原则不仅能降低风险、预防法律问题,还能转化为一种竞争优势。伦理绝非障碍,在竞争激烈的市场中,它代表着一种战略差异化因素。

作为最后的信息,人工智能在智利的潜力是巨大的,但其真正的影响将取决于适当的实施。道德方法不仅能确保其可持续性,还能最大化其对社会的利益。人工智能的采用不应局限于技术或经济考量;负责任和透明至关重要。归根结底,人工智能的未来将掌握在那些以道德愿景和对共同福祉的承诺来开发它的人手中。

编辑:闵昌薄

校对:卢强强

科讯搜寻:孙劳拉

本文使用ChatGPT辅助翻译,内容服务于中拉科技互鉴,不代表平台观点,如有疏漏,欢迎指正。

 


智网互联实验室

实验室总部

 

地址:哥伦比亚考卡山谷省卡利市Calle 5 # 62-00, 圣地亚哥卡利大学7号教学楼6层22室

电话:+57 602 5183000 ext. 9208

邮箱:info@nuxlabs.org

微信公众号

天津工作站(科普基地)

 

地址:天津市西青区宾水西道391号7号楼4层

电话:+86 22 60216176

邮箱:info@nuxlabs.org

友情链接 : 中国科学技术协会   天津市科学技术协会   VR中国   中国计算机学会   中国通信学会   圣地亚哥卡利大学分站点