世界新闻网
| 注册 退出
你的位置: 首页 > 世界观察 > 世界人物
投稿

苏纳克警告!“核战争规模风险”

2023-11-03 11:09:30 来源: 世界新闻网 责任编辑:张春 点击图片浏览下一页

苏纳克在AI峰会上警告:人工智能可能给人类带来与核战争规模相当的风险

11月1日,首届全球人工智能(AI)安全峰会在英国拉开帷幕,为期两天的会议在布莱切利庄园举行。据英国《卫报》最新消息,英国首相苏纳克2日在会议期间警告说,AI可能会给人类带来与核战争规模相当的风险。

92cdd57eeb9c00100020a3c1c562fae0.jpg

苏纳克在首届全球人工智能(AI)安全峰会会议期间警告称,人工智能可能给人类带来与核战争规模相当的风险 图自天空新闻网

《卫报》称,苏纳克表示,他对先进的AI模型给公众带来的风险感到担忧。报道说,这与该领域内一些资深人士最近发出的警告相呼应。
“开发这项技术的人们已经提出了AI可能带来的风险,重要的是不要对此过于危言耸听。关于这个话题存在争议。业内人士对此看法并不一致,我们也无法确定。”苏纳克告诉记者,“但有理由相信,它可能会带来与大流行病和核战争规模相当的风险,这就是为什么,作为领导人,我们有责任采取行动,采取措施保护人民,这正是我们正在做的事情。”
报道说,苏纳克希望获得包括美国、欧盟、日本和加拿大在内的多国政府同意,就如何在AI工具发布之前进行合作、以测试其安全性达成协议。
报道还提到,苏纳克的话呼应了美国企业家马斯克的说法。马斯克在11月1日的会议上表示,人工智能是“对人类最大的威胁之一”。
《卫报》提到,此次峰会开始时,正式发表了一份由英国、美国、欧盟和中国在内的28个政府达成的《布莱切利宣言》,这是全球第一份针对人工智能这一快速新兴技术的国际性声明,旨在关注对未来强大人工智能模型构成人类生存威胁的担忧,以及对人工智能当前增强有害或偏见信息的担忧。

(环球网/张晓雅)

781d914a50e1a868d158e9237e8627ed.jpg

讲好全球故事 传播人民声音 关注行业焦点

本文地址:https://www.sjxwnet.com/new/9422.html 责任编辑:张春
更多
版权声明:
凡注明来源为“世界新闻网”的所有文字、图片、音视频、美术设计和程序等作品,版权均属世界新闻网所有。未经本网书面授权,不得进行一切形式的下载、转载或建立镜像。
凡注明为其它来源的信息,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
第三组广告 模板库 共展蓝图
关于我们 | 世界观察 | 新闻 | 世界娱乐 | 世界书画 | 联系我们 | 版权声明 | 招聘信息 Copyright © 2019-2025 世界新闻网 Inc. All Rights Reserved 中国报业(延安)新闻培训学院南充基地 证字第RS20230602014号 民航通(无)企字第041598号
中华人民共和国工信部 蜀ICP备20000730号-2