Login
欢迎来到未来世界

您现在的位置是: 首页 > 互联网 > 人工智能

人工智能

世界互联网大会花了整个半天,专场讨论“人工智能伦理”

人工智能 加入收藏
11月10日下午,世界互联网大会人工智能与数字伦理分论坛举行。在世界互联网大会密集的分论坛议程中,最多有12场分论坛同时举行,只有这场“独占”半

11月10日下午,世界互联网大会人工智能与数字伦理分论坛举行。在世界互联网大会密集的分论坛议程中,最多有12个分论坛同时举行,仅这个“专属”半天的环节。

本次分论坛的主题是“人工智能的产业方向与伦理取向”,分为三个议题:人工智能伦理的技术逻辑与人类的选择空间;数字伦理的法理与真理————现实世界与数字世界融合的秩序与规则:人工智能及其产业模式的优化对人类社会未来生产生活形态的影响。

“本次论坛旨在深化国内外学者与产业界的对话,推动人工智能伦理研究和治理体系的探索与建设,促进安全、可信、可控的研发;d和人工智能技术的应用场景,并确保人工智能始终朝着以人为本、以技术为导向的方向发展。”中国网络空间安全协会秘书长李喻晓说。

2017年,“阿西洛马大会”在美国加州阿西洛举行。人工智能领域的专家学者关注了人工智能快速发展中的潜在问题,达成了多项原则,并提出了创造有益人工智能的目标。去年,我国发布了《新一代人工智能伦理规范》,提出了六项基本伦理要求:增进人类福祉、促进公平正义、保护隐私安全、确保可控可信、强化责任、提高伦理素养。

第十届论坛上,学者专家从不同角度阐述了对AI伦理的看法,论文(www.thepaper.cn)梳理了部分内容。

清华大学人工智能研究院名誉院长、中国科学院院士张工在线发表演讲。图片均来自官网,世界互联网大会。

清华大学人工智能研究院名誉院长、中科院院士张伟:明确伦理标准需要全球合作。

“当机器不断进步发展,总有一天它的智力会超过人类,特别是当它拥有了主观意识,人类就会失去对机器的控制,这将带来灾难性的后果。”——的人工智能的风险早就提出来了,霍金也发出了警告,但我们一度认为这是高瞻远瞩。

到了本世纪初,基于大数据的深度学习在人工智能中兴起,人们的认识发生了变化,觉得人工智能的伦理风险指日可待,治理迫在眉睫。

目前,根据人工智能的技术,我们可以通过深度神经网络,根据用户的要求,生成符合要求、质量良好的文本和图像。同样,我们也可以违反要求,生成充满种族、性别等偏见、不公平、错误百出、不受用户控制的文本和图像。如果根据这些错误的文本做决策和预测,可能会带来严重的后果。

如果我们想让机器智能发展,就不能让它完全受人类的摆布。我们需要给它一定程度的自由和自主权。——深度神经网络就是基于这个原理:使用概率作为数据工具,机器可以生成丰富的文本和图像。但也是因为这个原因,必然存在产生不合格的、有害的文字和图像的概率。

人工智能的发展必然会给伦理道德和传统规范带来冲击。从根本上说,人工智能的研发应该以人为本,从公平正义的伦理原则出发。因此,我们需要努力建立一套可解释的鲁棒人工智能理论(Robust的音译意为“健壮”,是指系统在异常和危险情况下的生存能力),并在此基础上,才有可能开发出安全、可信、可控、可靠、可扩展的人工智能技术。

人工智能的研究和管理需要全世界不同领域的人的合作。除了从事人工智能研发和使用的人,来自


图集详情底部广告位