图灵奖得主约瑟夫·希发基思:讨论AI风险时,需区分是人为因素还是技术风险

作者: 澎湃新闻   日期:2024-10-29 18:10 阅读:0  来源:澎湃新闻  
分享到:
邮箱:

据澎湃新闻报道,“现在,当我们谈论使用人工智能带来的风险时,我们应该区分哪些风险是人类带来的,哪些风险是技术造成。”10月26日,在2024世界顶尖科学家智能科学大会“为人类永续发展制定AI治理框架”主题论坛结束后,Verimag实验室创始人、2007年图灵奖得主约瑟夫·希发基思在接受澎湃科技(www.thepaper.cn)采访时表示。

 

图灵奖得主约瑟夫·希发基思在2024世界顶尖科学家智能科学大会上发表演讲。


约瑟夫·希发基思于1946年出生于希腊,在法国完成硕士、博士学位,并成为法国格勒诺布尔大学(Université Grenoble Alpes)VERIMAG实验室创始人和科研主任,2007年希发基思因在模型检查理论和应用方面的贡献获得了图灵奖,这是计算机科学领域的最高荣誉之一。

在此次“为人类永续发展制定AI治理框架”主题论坛上,谈论起当前AI发展带来的风险问题,约瑟夫·希发基思表示,现在,当我们谈论使用人工智能带来的风险时,我们应该区分哪些风险是人类带来的,哪些风险是技术造成。对于人工智能来说,非常有可能区分出哪些风险是人类使用技术造成的,哪些是技术本身造成的。

约瑟夫·希发基思指出,前者包括算法需求的不完整性、算法设计的缺陷,以及算法部署时可能面临的外部环境威胁。后者分为两种,比如当客户或投资方对AI系统提出的需求可能不合法或不道德,用户也可能将系统用于风险中。对此,约瑟夫·希发基思认为,应针对算法设计者和使用者的人为风险以及算法设计部署阶段的技术风险,分别制定相应对策。

“为了避免这一风险,法规非常重要,当前所有出现的问题,都是因为利益相关者没有给出明确的定义要求。技术可以适当地提高标准。”约瑟夫·希发基思称。

约瑟夫·希发基思在会后接受澎湃科技(www.thepaper.cn)采访时指出,当前,太多人谈论AI(人工智能),但什么是智能,如何真正地实现应用,这些人无法精确地回答。他认为,尽管人类在人工智能研究中取得了长足的进步,并迎来了生成式AI,但目前应用只是弱智能(weak AI),集中在问答应用上,并没有能够同步人工智能能力的技术和法则。

澎湃科技注意到,2024顶科协奖“智能科学奖”得主、康奈尔大学计算机科学和信息科学讲席教授乔恩·克莱因伯格在此次论坛上也指出,当前人工智能发展,人类自身的排外偏见会导致算法与生俱来的偏见,进而引发人类社会的一系列混乱。受到经济激励的影响,人们在设计算法时容易陷入“单作”的状态。此外,人类在面对超越人类的AI系统时,认知上的落后会带来麻烦。在和此类AI系统开展合作时,控制权往往不在人类自己手里。但假如人工智能突然把控制权交了出来,那么人类就可能犯下严重错误,因为AI知道该怎么做,人类未必。

所以克莱因伯格认为,“在做人类判断和算法知识判断的时候,都要考虑风险偏见问题。”在设计时既要追求算法的强大,也要注意,事态不能发展到失控的地步。

版权声明
1. 未经《新西兰天维网》书面许可,对于《新西兰天维网》拥有版权、编译和/或其他知识产权的任何内容,任何人不得复制、转载、摘编或在非《新西兰天维网》所属的服务器上做镜像或以其他任何方式进行使用,否则将追究法律责任。


2. 在《新西兰天维网》上转载的新闻,版权归新闻原信源所有,新闻内容并不代表本网立场。

版权声明
1. 未经《新西兰天维网》书面许可,对于《新西兰天维网》拥有版权、编译和/或其他知识产权的任何内容,任何人不得复制、转载、摘编或在非《新西兰天维网》所属的服务器上做镜像或以其他任何方式进行使用,否则将追究法律责任。


2. 在《新西兰天维网》上转载的新闻,版权归新闻原信源所有,新闻内容并不代表本网立场。

新闻评论须知

· 请您文明上网、理性发言

· 尊重网上道德,承担一切因您的行为而直接或间接引起的法律责任

· 您的留言只代表个人意见,不代表本站立场

· 天维网拥有管理笔名和留言的一切权利

· 您在天维网留言板发表的言论,天维网有权在网站内转载或引用

· 天维网新闻留言板管理人员有权保留或删除其管辖留言中的任意内容

· 参与本留言即表明您已经阅读并接受上述条款

验证码:
×

查看所有评论  共( 条)

Click here

Advertising With Us