![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |
翻墙 | 三退 | 诉江 | 中共卖国 | 贪腐淫乱 | 窜改历史 | 党魁画皮 | 中共间谍 | 破坏传统 | 恶贯满盈 | 人权 | 迫害 | 期刊 | 伪火 社论 | 问答 | 剖析 | 两岸比对 | 各国褒奖 | 民众声援 | 难忘记忆 | 海外弘传 | 万人上访 | 平台首页 | 支持 | 真相 | 圣缘 | 神韵 | |
美国AI安全风险顾问公司Gladstone AI公布最新报告表示,最先进的AI系统在最坏的情况下,可能“对人类构成灭绝等级的威胁”,警告美国政府避免灾难的时间已经不多。(Olivier Morin/AFP)【大纪元2024年03月14日讯】(大纪元记者吴旻洲编译报导)人工智能(AI)技术迅速发展,是否威胁人类生存越来越受到关注。美国国务院委托美国智库针对二百多位AI公司高层、国安人员与专家进行调查,专家们担忧,最先进的AI系统在最坏的情况下,可能“对人类构成灭绝等级的威胁”,警告美国政府避免灾难的时间已经不多。 美国国务院委托AI安全风险顾问公司Gladstone AI进行调查,在一年多的时间,采访了二百多名人员,包括AI公司高层、网路安全研究人员、大规模杀伤性武器专家,以及国家安全官员,Gladstone AI于本周发布这份报告。 报告提到,虽然所有AI实验室都在争取10年内建立通用人工智能(AGI,一种具有类似人类智能和自学能力的软体),但这项革命性技术,将对民主治理和全球安全产生深远影响。 报告说,已有越来越多证据,包括在世界顶级AI会议上发表的实证研究和分析显示,超过一定的能力阈值,AI可能会变得不可控。专家们最担心的是,最先进的AI系统可以武器化,可能会造成无法逆转的损害。 其次,AI实验室内部也担忧说,一旦AI发展到某种程度后,开发人员会对他们自己开发的系统“失去控制”,可能会对全球安全造成“毁灭性后果”。 面对AGI技术快速发展,监管能力却远跟不上开发的速度,实验室高阶主管和工作人员已公开承认存在这些危险,但因为竞争压力的原故,促使实验室仍然以“牺牲安全为代价”,对人工智能能力进行投资。 报告警告,这会增加最先进AI系统可能被“窃取”和“武器化”,并用来对抗美国的可能性,如武器化机器人、无人机等等,以及武器化的生物和材料科学,存有挑起AI“军备竞赛”、冲突以及“大规模毁灭性武器规模的致命事故”的风险。 其它灾难还包括,由AI驱动的“大规模”虚假资讯活动,这些活动会破坏社会稳定,并削弱对机构的信任。AGI被视为“失控导致灾难性风险的主要驱动因素” 目前AGI仍处于理论性阶段,目标是建立类似人类智能和自学能力的软体,而且不需要编程,就能在任务之间学习,并适应新的任务和环境。包括OpenAI、Google DeepMind、Anthropic和英伟达(Nvidia)等公司都曾公开表示,AGI可能会在2028年实现。 “美国政府显然迫切需要进行干预”,作者在报告中呼吁,应采取重大新措施来应对这项威胁,包括实施“紧急”监管保障措施、限制可用于训练人工智能模型的电脑能力。 报告建议,应该禁止对超过一定阈值的高级AI系统进行训练、尽可能缓和所有AI开发人员之间的竞争动态,并降低晶片行业制造更快硬体的速度。一旦尖端模型的安全性证据得到充分证明,AI机构就可以提高门槛。若在现有模型中发现危险功能,政府则可以降低安全阈值。 不过,该提案可能会面临政治困难,目前美国政府的AI政策是设定运算阈值,高于该阈值则适用额外的监控和监管要求,但不会限制并指其违法。美国政府智库战略与国际研究中心(CSIS)称,美国政府极不可能采纳这一建议。 已有越来越多的专家警告,AI的快速发展可能会威胁到人类的生存。 被业界誉为“AI教父”的辛顿(Geoffrey Hinton)去年4月辞去了Google的工作,他当时受访时坦言,AI进步速度远超预期,有10%的可能性,会在未来30年内导致人类灭绝。 去年6月,辛顿与其他数十位人工智能产业领袖、学者和其他人士共同签署一项声明,呼吁减轻人工智能灭绝人类的风险,应该成为“全球优先事项”。 商界领袖虽然已在AI领域投资了数十亿美元,但也同样为此感到担忧。去年,在美国耶鲁大学执行长高峰会(Yale CEO Summit)上接受调查的执行长中,有42%的人表示,人工智能有可能在5到10年后毁灭人类。 Gladstone AI也采访了包括ChatGPT所有者OpenAI、Google DeepMind、Facebook母公司Meta和Anthropic的技术和领导团队等人,并警告虽然AI已经是一项经济变革技术,继续吸引投资者和公众,但也存在真正的危险。 报告提到,一名知名人工智能实验室员工表示,如果将下一代人工智能模型以开放获取的方式发布,那将“非常糟糕”,这些模型可能会被用于干预选举、操纵选民等领域,可能会对民主造成破坏。◇ 责任编辑:昌英# 相关新闻:编辑推荐: 本文转自大纪元(国内需用翻墙软件才能访问) 下载翻墙软件浏览原文:美智库警告:AI恐造成人类灭绝风险 手机上长按并复制下面二维码分享本文章: | ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() |