破坏力堪比切尔诺贝利,失控的人工智能在科学家眼中有多可怕? |
发布者:鸿腾智能科技(江苏)有限公司 发布时间:2023-04-11 13:28:00 点击次数:674 关闭 |
人工智能的快速发展引发了全球科技狂潮,但在许多专家看来,变化太快可能会给世界带来灾难性的影响。 根据美国斯坦福大学的年度报告,许多接受调查的人工智能研究人员承认人工智能将成为人类社会的突破口,但36%的专家认为这项技术的影响可能不会是积极的。 人的工作胜过人? 报告指出,随着生成式人工智能开发和部署的准入门槛大幅降低,围绕人工智能的伦理问题将更加突出。由于初创企业和大公司竞相开发自己的模型,监管也受到阻碍,这意味着该技术不再由一小部分参与者控制。 谷歌与微软的“军备竞赛”较量,也让行业走上了更快的发展轨道。另一方面,也意味着不愿尝试的企业或个人,很快就会被AI行业甩在后面,这样一来,大家就被拖着往前走,别无选择。 在斯坦福的一项民意调查中,57%的科学家同意,以目前的发展速度,许多研究正在从生成人工智能转向创建通用人工智能(AGI)。业界认为,AGI需要50年或数百年的时间才能出现,而也有人质疑真正的AGI是否存在。 不祥的假设是,真正的AGI很可能伴随着人类对技术发展失去控制。 AGI本身可以非常接近甚至超越人脑的能力。人工智能作为人类的创造物,已经实现了超人的智能,这是58%的受访研究人员心目中的一个巨大问题。 另一个“切尔诺贝利” 加州大学巴克莱银行计算机科学教授StuartRussell警告说,不受约束的AI可能会导致切尔诺贝利式的灾难。 几十年来,拉塞尔一直是人工智能领域的领军人物,但他也是与马斯克一起呼吁暂停人工智能开发的名人之一。 他强调,人工智能出版商必须确保他们创建的系统能够安全运行,并证明模型符合相关法规。就像建造核电站一样,建设者必须向政府证明它是安全的:它不会在地震时泄漏,也不会像切尔诺贝利那样爆炸。 罗素认为,创造人工智能的新模式就像制造客机、建造核电站一样,只要出现一个小问题,就会对世界造成灾难性的影响。 此外,专家们迫切担心当前的人工智能研究过于专注于商业化和以时间和精力为代价实现目标,而没有听取各个研究领域的见解,这可能不利于解决人工智能伦理问题。 |
出租车广告顶灯LED03
作为中国半导体设备的重要进口国,日本将于2023年7月23日起实施半导体出口管制新规。最新海关数据显示,虽然今年上半年日本半导体设备进口同比下降,但6月环比增长,甚至出现光刻机抢购现象。
今年第5号台风杜苏芮“上午,对福建的正面攻击预计将登陆沿海地区,从厦门到惠安,厦门市将启动一级反应。7月27日22时30分左右,我军部队第73军接到命令派出紧急救援力量
据新华社7月27日报道,住房和城乡建设部部长倪虹在近日召开的企业座谈会上表示,将大力支持刚性上升的住房需求,进一步落实降低首付比例和购买首套住房贷款利率购房税费减免、个人住房贷款“知房不贷”等政策完善和措施;继续做好房屋交接工作,加快建设项目交付,切实保护人民群众合法权益。
7月25日至26日,国务院国资委在北京召开“国资委地方领导深化国有企业改革升级举措研讨会”。会上,他们要求我们做好下半年工作,更好推动国有产权和国有企业高质量发展。重点做好深化国有企业改革升级、提质增效稳定增长、提高科技创新能力、调整国有经济布局结构等七个方面工作。
近日,俄罗斯40岁亿万富翁、俄罗斯最大IT集团ICSHoldings创始人安东·切列帕尼科夫(AntonCherepanikov)被发现死于莫斯科办公室,初步死因是心脏骤停。然而周围人却对此表示怀疑,让切列帕尼科夫也成为最新一位“神秘死亡”的俄罗斯富豪。