④人脸识别技术下的歧视问题 随着我国对于个人信息处理的合法性、透明性要求日渐增强,企业在完全依靠自动化算法处理人脸识别信息并作出显著影响个人信息主体权益的决定时,为了避免可能的算法歧视对自然人造成的影响,建议应: (1)全面告知人脸识别信息的使用用途; (2)AI自动算法的工作原理以及AI将使用何种特征来评估数据主体; (3)就收集人脸识别信息以及后续的AI处理行为获取数据主体同意; (4)向个人信息主体提供申诉方法,以保障受影响的主体质疑自动化决策所做结论的权利。 受限于技术发展现状、原始数据的偏差、算法设计者自身的偏见,使用人脸识别算法通过标签化的判断方式增加了作出歧视性决策的风险,而这些风险绝大程度上将由本身已处于相对劣势地位的人群承担。在缺乏监管、有效保障措施、透明度和问责机制的情形下,人脸识别算法的运用将加速现有的不平等现象。而令人担忧的是,通过借助复杂晦涩的算法,歧视往往以一种不易察觉的方式进行。 我国法律对面部识别特征进行较为严格的保护 人脸识别带来的便利不可忽视,然而技术的发展没有边界,但技术的使用必须有边界,可这个边界是模糊的。哪些场景可以应用,哪些领域可以扩展,均无明显规范。因此,当其逾越了边界,自然就产生了诸多争议。 我国关于人像采集的法律法规主要集中于出入境管理、身份证办理、刑事侦查、道路交通安全管理等法律法规,公安机关等相关政府部门有权力强制采集数据主体的人像、指纹等生物识别信息。比如,《身份证法》第三条规定居民身份证登记的项目包括本人相片、指纹信息等。 除了法律对人像采集有强制性规定的场合之外,人脸识别正在被广泛运用到火车站/飞机场的“刷脸进站”、学校的课堂监控、企事业单位的“真人打卡”等公共管理领域,以及银行等金融机构的身份验证、支付宝等第三方支付的身份验证、在线美颜和P图等商业领域。上述行为是否符合《网络安全法》及相关信息保护法律规范的要求值得思考。 其实,从人脸识别的技术来看,除了首次在数据库中存储的面部识别特征,在此后的面部识别中采集的面部特征可以仅用于校对,而不进行存储。不收集或减少收集不必要的个人敏感信息也符合《网络安全法》关于数据收集的“必要”原则,同时也可以减少数据泄露的安全风险。 结尾: 人脸信息,作为人体重要的生物信息,在技术发展的推动下,已经应用到支付、娱乐、安防、教育等各个生活领域。技术是一把双刃剑,人脸识别作为一项高新技术,人们在体验其为生活带来便利的同时,也不能忽视其带来的信息安全、隐私泄露等问题,更不能对其带来的法律风险视而不见。 |