AI第一课,旷视有话说
转载 2020-10-20 09:09 旷视 来源:旷视导读:如果未来,AI机器人普及,每个人都可以按照自己的理想型去定义伴侣,你会想要吗?如果你发现有另一个“自己”正在被他人操控,你要如何“夺回”自己的命运?再或许,未来的世界中,人们要遵循机器的逻辑、服从于算法的规则,你会接受吗?……
也许这些情景现在都还停留在科幻电影中,但人工智能技术的到来在改变社会各个方面的同时,正在通过一件件引起社会争议的事件提醒我们,这些看似不着边际的想象,也许就在不久的将来会发生在我们身边。AI时代,我们不得不思考:作为AI发展的见证者,我们该如何推动技术可控、可信、可靠?在技术进步和伦理考验面前,我们该如何抉择?
值得注意的是,在AI可持续发展的道路上,已经有越来越多的人行动起来。新学期开学不久,一位来自B站的up主——在下小苏,就曾搜集和整理了一系列问题前来咨询。对此,旷视也接受了小苏有关AI伦理的相关采访。小编对这一次的“非正式访谈”进行了记录与整理,干货满满,一起来学习吧!
AI伦理的那些“坑”
技术本是中立的,但是技术在不同的应用场景起到的作用却不尽相同。随着AI技术的深入应用,类似“AI换脸”、“机器人公民”等事件,在经济与社会生活中屡屡引发质疑和争议。对此,我们就AI技术应用中备受关注的热点话题进行了讨论:
身份盗用的风险
此前,Deepfake技术的换脸应用曾经在网络上被炒得沸沸扬扬,目的有的仅是出于恶搞,但有的却会被用于利益欺诈。造成这种乱象的背后,是个人身份被盗用的风险在增大。而如何保护人们的身份权益,往往考验的是人们在技术应用、法律法规、行业标准等各方面的综合智慧。
算法歧视的隐忧
人类的命运是否会被算法所左右呢?算法是公平的吗?一款名为Genderify 的AI性别识别平台就给了我们一些思考这个问题的启发。用户在平台上直接输入姓名或者个人电子邮件地址,即可获取性别判断的结果。但同样的姓名,如果加入前缀“Dr. ”,测试出的结果往往是男性,这就引发了“性别歧视”的争议。类似这种有意的或无意的引发对不同性别、种族、文化、弱势群体等等产生差异化判断的算法,我们应当如何对待呢?
人机关系的迷茫
人类和机器人谈恋爱,这是科幻影片题材的最爱。可如果现实中真的有技术可以让机器再现人类的情感,你是会接受还是要拒绝呢?这样的应用已经开始出现,而对此的探讨一直都引人关注。
其实,以上三个问题只是AI伦理问题的“冰山一角”。更大的AI伦理范畴已经涉及到经济发展、权责机制、数据隐私、以及其它伦理道德问题。
鉴于人工智能技术对社会各方面产生的巨大影响,如果你也对人工智能的发展感兴趣,甚至想成为未来这个领域的从业者,AI伦理学习或许就不再是一个或有或无的命题,而是“入门课程”。
学习AI伦理和治理的正确姿势
而在“AI伦理”之外,我们还必须厘清一个概念——“AI治理”。
简单的说,就是“你有病,我有药”的关系。“AI伦理”产生出的问题,需要“AI治理”通过体系化的方式进行处理和解决。当然,人们对“AI伦理”标准的讨论和认知是动态发展的,这就决定了“AI治理”也是一个基于协调多个利益相关方的、持续互动的过程。
所以,学习AI伦理,首先要从认识“AI伦理”问题、培养相关意识开始。
目前国内以中国社科院、清华大学、复旦大学、上海交大等为代表的高校、科研机构都已经开展了AI伦理的相关研究,外界可以时时关注他们的研究进展。此外,世界人工智能大会、北京智源大会等行业顶级峰会都设置了相关分论坛,讨论AI伦理问题,呼吁更多人关注AI行业的可持续发展。
然后,要了解“AI治理”的各种方式和参与各方的进展。
现在社会各界,包括产、学、研、政、企等各个相关方,都在积极行动探索“AI治理”的方向和方法。以企业的AI治理为例,旷视也做了很多务实的推进,从基本原则的建立,到对内组织机构建设、对外开展联合研究,旷视步履不停。
对于个人而言,最关键是找到合适的学习资源和渠道。
在生活中,我们可以带着实际问题去思考;还可以通过高校或者行业大会等渠道阅读相关书籍或论文,学习前沿观点。当然,还有个更直接的学习方式,就是来旷厂实习亲身体会啦:)
技术的正向发展需要AI治理作为基础保障,无论是刚刚开始从事技术研发的“AI新青年”,还是从业多年的行业老兵,亦或只是AI产品的用户,都有必要认识到AI伦理的重要性。
我们真心希望,通过本次"访谈"可以让更多人了解和关注AI伦理问题。人与AI的关系是一个永恒的话题,未来“AI第一课”系列还会带来更多有意思的话题与你一同探讨。欢迎更多志同道合的朋友们加入其中,大家一起携手,用AI把生活建设得更加美好!