元宇宙网:拜登政府已开始研究是否需要对ChatGPT等人工智能工具进行审查

AI2年前 (2023)更新 admin
122,226 0

摘要

华尔街日报消息,拜登政府已开始研究是否需要对ChatGPT人工智能工具审查

元宇宙网:拜登政府已开始研究是否需要对ChatGPT等人工智能工具进行审查

智能快速发展掀起了全球技术狂热追逐,然而在许多专家眼里,变化发生得太快可能世界造成灾难性的影响。

根据美国斯坦福大学的一份年度报告接受调查的人工智能领域人员,很多人承认人工能将变成人类社会的分岭,但其中36%的专家认为这项技术带来的影响未必是积极的。

人类超越人类

报告中指出,随着创建和部署生成式人工智能的门槛大幅降低,人工智能的伦理问题将变得更加明显。因为初创企业和大公司都在竞争开发自己的模型,这意味着这项技术不再由一小群参与者控制,这让监管也变得更加困难。

谷歌微软军备竞赛”式的竞争,也让这个行业进入更加高速的发。在另一方面,这也代表着不愿尝试公司个人将被人工智能行业迅速丢下,这样一来,所有人都被裹挟向前,别无选择。

斯坦福大学的调查中,57%的研究人员赞同,以目前的发展速度,大量研究正在从生成人工智能转向创造的人工智能(AGI)。业界认为AGI的出现需要50年或年,而一些人则质疑是否存在真正的AGI。

可怕的猜测在于,一个真正AGI很可能伴随着人类失去对技术发展的控制。

AGI本身可以准确模仿甚至超越人脑能力。作为人类的造物,人工智能反而获得超越人类的智慧,这在58%的受访问研究人员中是一个巨大的问题。

另一切尔诺贝利

加州大学巴克莱分校计算机科学教授Stuart Russell警告,不受约束的人工智能可能会带来切尔诺贝利式的灾难。

Russell数十年来一直是人工智能领域的领军人物,但他也是与马斯克联合呼吁暂停开发人工智能的名人之一。

他强调,人工智能发布者必须保证其开发的系统可以安全,并证明该模符合相应的规定。就好像是建造一座核电站,建设者必须向政府证明其安全性:其不会在地震中泄漏,也不会像切尔诺贝利那样爆炸。

Russell认为创建人工智能模型生产客机和建造核电站一样,只要出现一点小问题,就会对世界生灾难性影响。

此外,专家们还很紧迫的担忧是,人工智能当前的研究过于关注商业化和实现目标,而牺牲了取不同研究领域见解的时间和精力,这可能不利于解决人工智能伦理问题。

文章来源财联社

 

 

来源:东方财富-财联社

https://finance.eastmoney.com/a/202304112687625655.html

© 版权声明

相关文章