首先要肯定的是,随着技术的发展,AI在人们工作与生活中扮演着越来越多、越来越重要的角色,有存在的合理与必然性,其所带来的价值无疑是巨大的。例如,提高数据处理效率,改变行业等。因而对于AI隐私泄露的这一隐患,人们只能正视、想办法解决问题,而非漠视、逃避或其他。
而要提高工作与生活的效率,观察并详细记录用户日常生活中的行为表现,收集、整理分析,并管理这些信息,也是 AI需要做的事。那么,用户的隐私数据该如何保护?
对此,国内外部分企业,都在不断地努力尝试,以解决这方面问题。
不断成立的AI伦理委员会:透明性是关键
2016年微软成立AI伦理委员会“AETHER”,把全公司的产品部门、业务部门,还有更重要的法务部门集合在一起,以讨论和解决AI相关问题。
同年,亚马逊、微软、谷歌、IBM和Facebook,联合成立非营利性的人工智能合作组织“Partnership on AI”(苹果于2017年1月加入该组织)。该联盟为开发AI系统的公司,提供了一个沟通平台,让各方在一些有可能对全人类,造成巨大损害的问题上,寻求共同点。
然而,很明显,仅仅建立AI伦理委员,并不能消除人们对AI隐私透露等问题的担忧。因为实际上,除了知道该委员会成立了,具体的人们一无所知。例如,其究竟研究哪些工作?解决了哪些问题?有什么重要的成果?似乎一直是被讳莫如深的(或者说,没看到实效)。
对此,小编认为,AI相关技术和工作进展的透明性,也很重要。而麻省理工学院媒体实验室的总监伊藤穰的看法,或许道出了关键:“需要将AI领域内发生的事情,传达给关注AI未来的人。如果没有对AI技术的理解,律师、决策者和一般公众,就很难真正理解或想象AI的可能性和风险。”当然,也就无法更有效地避免或解决,类似AI隐私透露等问题。
知乎算法机器人“瓦力”:机器学习的可控性
不仅仅是国外,国内对解决AI隐私泄露等问题也在寻求解决之道。例如,知乎的算法机器人“瓦力”,可实时高效处理多种场景,包含贴标签、辱骂和歧视等各种不友善行为,努力减少低质和无关内容对普通用户的干扰。上述这些,多少都体现出AI算法的重要角色。要知道AI是依赖于机器学习(深度学习)算法的,是需要大规模训练数据的。那么,如何搜集数据、提供怎样的数据,最终赋予AI怎样的“判断力”,让其更好地理解人类,避免无意识地犯错,减少隐私泄露、歧视等问题的发生,也是应当被着重考虑的问题。
面对当前AI所面临的隐私泄露等问题,小编认为,当前最能理解AI的,还要数运用这一技术的公司及其技术人员,因而相较于普通人,他们无疑更应当承担起让AI更好地“理解”人类的责任。正如扎克伯格在听证会上所说的:“我们不仅仅应当研发和利用AI技术,还有责任更好地正确运用AI技术。”相信大家和小编一样期望,更多的AI公司能有自己的“原则”(如同Facebook这次所公布的《原则》),并能真正坚持这些原则,让AI更好地为人类服务。
需要底层系统的安全性
不过确实也会带来些问题,有利有弊吧
看似好像有创造力的AI,可能只是规则下的产物
其实研究AI就像在研究人
现在的ai应该都只是弱人工智能
每天进步一点,自己顶
AI的同时必须关注AI带来的一些问题
好好学习AI
人工智能可能存在的一些问题,也值得我们思考。AI的同时必须关注AI带来的一些问题
近期AI泄密事件无独有偶,得引起重视