边界问题
大数据和人工智能的某些技术和应用可能给社会经济发展带来意想不到的深远影响。所谓边界问题,就是当我们意识到这种风险,但却不能准确评估利弊的时候,是否需要用更加审慎的态度考虑是否要设定一个安全边界,在没有足够把握的前提下暂缓发展相关的技术或应用,以避免风险失控。边界问题不同于导向性的问题[1],因为我们对后者影响的正面性和负面性以及范围是大致了解的。
首先以测谎为例来说明这个问题。所谓“测谎”,是指专门技术人员按照一定的规则,运用测谎仪器设备记录测谎对象在回答其所设置的问题的过程中某些生理参量的变化,并通过分析测谎仪器设备所记录的图谱,对被测谎对象在回答有关问题时是否说谎作出判断的活动。测谎被运用于刑事司法领域,有很长历史,我国部分公安机关在80年代就开始使用测谎技术辅助办案。根据1999年《最高人民检察院关于CPS多道心理测试鉴定结论能否作为诉讼证据使用问题的批复》,测谎可以帮助审查判断证据,但不能作为诉讼证据使用。传统意义上的测谎,都要有仪器设备记录生理参量的变化,而且其使用范围非常局限,主要限于刑事侦查。但是人工智能技术却提供了一种新的可能,在不直接接触被测对象也不直接测量生理参数的前提下,通过对被测对象微表情的自动识别和分析,判断被测对象是否说谎[2]。如果结合身体姿态和声音数据,测谎的准确度还能进一步提升[3]。随着技术的进一步发展,可以预计在不远的未来,通过一些低配的传感设备,例如手机上的摄像头和麦克风,就有望较准确地判断交谈的对方是否说谎。毋庸置疑,真相是人类社会的基石之一;但与此同时,谎言也是我们这个社会得以维系必不可少的元素。有些谎言是表达善意的,例如医生对病人、父母对子女;有些谎言是维持秩序的,例如职场之间、官场之上。在很多时候,谎言是社交的润滑剂,一个没有谎言的社会一定是干涩的!更可怕的是,如果有一个智能软件可以自动测谎并报警,我们连故意装糊涂的权利和心态都失去了。尽管我们现在还不能精确预见这项技术可能带来的正面效应和负面效应,但是它的成熟化和普适化有可能带给我们超出想象的冲击和困扰。
接下来介绍一个深度造假(Deepfake)的例子。Deepfake是英文deep learning和fake的混合词,泛指基于人工智能的人体图像和视频合成技术。深度造假技术的发展很大程度上得益于2016年的一个算法[4],该算法可以几乎实时地伪造目标视频中的面部表情。这项技术很快发展并与姿态、声音等伪造技术结合,从而可以伪造包括领导人讲话和名人性爱影片在内的各种视频,从而引起了广泛的关注。一些利用深度造假技术制造的假新闻传播广泛,几乎可以以假乱真。尽管研究人员发展了各种技术手段以识别真实视频和深度造假视频[5],但直到现在,辨别深度造假视频依然是专业领域最困难的挑战之一[6],对于普通人而言,是完全无法辨识真伪的!这项技术可能给我们的社会带来三重影响。一是掌握了这项技术的人可以用很低的成本造假,从而给社会信用带来伤害,例如使用深度造假技术伪造“领导到扶贫现场视察的照片”将和场景无缝融合,不会出现因为透视偏差(漂浮感、突兀感)、光影异常、边缘突变等问题而被网友一眼识破。二是个体可能会成为被造假的对象而受到困扰甚至严重伤害。例如当个体的面部高清度的图像和视频数据被获取后,造假者可以制造几乎以假乱真的不雅照片和不雅视频。如果个体的语音数据被获取了,造假者还可以制造音色音调和本人几乎一致的发言并配合造假视频,如果该言论为不良言论,可能给个体带来极度负面的影响。在目前的互联网环境中,清除这些不雅照片、不雅视频和不良言论的影响,是困难且代价极高的。三是该技术的成熟化和普适化会使得“证明真相是真相”的难度大幅度提高,因为图片、视频和语音都可能造假,“有图有真相”的时代将一去不复返。尽管深度造假的底层技术,也可以应用于动画、动漫、游戏和电影制作,但是其可能给社会信用带来的冲击和影响,目前是难以估量的。
[1] 周涛,大数据与人工智能的伦理挑战(上),电子科技大学学报(社科版),2018年,第20卷第5期,1-6页。
[2] M. Owayjan, A. Kashour, N. A. Haddad, M. Fadel, G. A. Souki, The design and development of a Lie Detection System using facial micro-expressions, Proceedings of the 2nd International Conference on Advances in Computational Tools for Engineering Applications (IEEE Press, 2012).
[3] J. Ginzalez-Billandon, A. M. Aroyo, A. Tonelli, D. Pasquali, A. Sciutti, M. Gori, G. Sandini, F. Rea, Can a robot catch you lying? A machine learning system to detect lies during interactions, Frontiers in Robotics and AI 6 (2019) 64.
[4] J. Thies, M. Zollhofer, M. Stamminger, C. Theobalt, M. Niessner, Face2face: Real-time face capture and reenactment of RGB videos, In Proceedings of the IEEE conference on Computer Vision and Pattern Recognition (IEEE Press, 2016), p. 2387-2395.
[5] D. Güera, E. J. Delp, Deepfake video detection using recurrent neural networks, In Proceedings of the 15th IEEE International Conference on Advanced Video and Signal Based Surveillance (IEEE Press, 2018), p. 1-6.
[6] B. Dolhansky, J. Bitton, B. Pflaum, J. Lu, R. Howes, M. Wang, C. C. Ferrer, The deepfake detection challenge dataset, arXiv: 2006.07397 (2020).
中立性:http://blog.sciencenet.cn/blog-3075-1132463.html
时效性:http://blog.sciencenet.cn/blog-3075-1133184.html
导向性:http://blog.sciencenet.cn/blog-3075-1134121.html