李思辉:以科技伦理封印潘多拉魔盒

创新的精神、创造的活力应该得到有力保护。但是,科技创新技术的应用必须符合基本的科技伦理,尤其是与人相关的应用必须非常审慎。

上传一张照片,就能把诸多明星塑造的角色换成自己的脸。比如漫威系列的“绯红女巫”,《泰坦尼克号》中小李子扮演的“杰克”,或是《喜剧之王》里的“柳飘飘”……这几天,微信朋友圈和微博都被一款换脸软件刷屏。但是,好玩并不意味着安全。由于换脸后需要进行眨眼、抬头等各种验证,与刷脸支付采集的脸部信息类似,同时注册平台需要手机号码,不少用户担心脸部数据被泄露会引发一系列问题。专家指出,此类软件的确存在隐私泄露风险。

在这款软件最初的用户协议中,明确规定用户必须“同意授予这款软件及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利。”这就意味着用户必须把信息的使用权乃至所有权一并交给平台。一旦商家合法占有了个人信息所有权及隐私权,那些用户很可能成为信息世界的“透明人”,存在巨大的信息安全风险。一些媒体担心这种技术应用可能打开“潘多拉的魔盒”,并非杞人忧天。

人人生而有一张与众不同的脸,如果连人脸、表情、指纹等生理特征都可以随意“转变”,人类赖以区别和交互的安全基础就可能受到挑战。同样的道理,如果不能从伦理上加以严格控制,无人驾驶会造成极大的公共安全隐患,今后具备各种算法、性能,甚至“有情感”“能结婚”的智能机器人,也可能扰乱我们的生活,突破人类的价值和伦理底线。

科技发展与人类伦理之间的匹配性、适应性是一个不容忽视的问题。科技发展、人类进步需要无拘无束、大开脑洞的创新精神——几乎一切伟大的科技发明在它所处的时代都或多或少有不被大众理解的“超前性”。科学家的“疯子精神”应该被宽容,创新的精神、创造的活力应该得到有力保护。但是,科技创新技术的应用必须符合基本的科技伦理,尤其是与人相关的应用必须非常审慎。

早在半个多世纪前,图灵就在《智能机器》一文中不但详细讲述了人工智能技术的发展趋势和方向,同时也提到了人工智能对人类的威胁。2015年,包括中国学者在内的全球十多位专家在《科学》杂志上发表了一封题为《承认人工智能的阴暗面》的公开信,倡议将人工智能的社会伦理问题纳入现实的社会政策与伦理规范议程。妥帖拿捏保护科技创新与捍卫科技伦理之间的关系,使之相伴相生、高度适应,是摆在今人面前的一大课题。

人类生生不息,科技滚滚向前。我们需要更多的牛顿、爱因斯坦和爱迪生,同时也要以科技伦理有力封印“潘多拉魔盒”,避免唐突和无知造成难以预知的灾难。