话题:随着ai技术发展,ai换脸图片和视频成为热门现象,娱乐之余,让人真假莫辨,风险与困扰也不少。《法治日报》记者近日调查发现,互联网上,不仅有人随意兜售ai合成软件,“手把手教学”,使得制作生成ai“克隆人”视频的技术成了一门生意。还有人利用知名人士视频和声音ai合成新的视频,发在短视频平台上用来卖货。更有甚者,滥用ai换脸技术走上了违法犯罪的道路。
观点一:治理“ai换脸”乱象,亟须立法厘清应用边界
观点二: ai犯罪别成ai技术发展的“附带品”
治理“ai换脸”乱象,亟须立法厘清应用边界
张西流
随着人工智能技术的飞速发展,ai换脸技术逐渐走入大众视野。凭借其逼真的效果和便捷的操作,ai换脸在娱乐、影视制作等领域展现出了一定的应用潜力。然而,在技术带来便利的同时,其滥用问题也日益凸显,给社会秩序和个人权益带来了严重威胁,亟须通过立法手段厘清其应用边界。
ai换脸技术属于深度合成技术的一种,其随意使用可能引发肖像权和名誉权的侵权风险。根据《中华人民共和国民法典》规定,任何组织或个人不得以丑化、污损或利用信息技术手段伪造等方式侵害他人肖像权。未经肖像权人同意,擅自使用其肖像进行换脸并公开的行为,无疑是对肖像权的严重侵犯。此外,若将他人面孔换至不雅视频中或进行恶意丑化,还可能侵犯其名誉权。ai换脸技术一旦被不法分子利用,还可能成为实施诈骗、诽谤等违法犯罪活动的工具,对社会安全造成极大危害。
面对ai换脸技术的乱象,现有的法律法规尚不能完全满足治理需求。尽管国家互联网信息办公室、工业和信息化部、公安部联合发布了《互联网信息服务深度合成管理规定》,为深度合成服务划定了“底线”和“红线”,但在实际操作中,仍存在一些模糊地带。例如,对于个人使用ai换脸技术的界限、平台审核责任的具体划分以及侵权赔偿标准的确定等方面,还需进一步细化和明确。
首先,立法应明确个人使用ai换脸技术的边界。对于非商业性质的个人娱乐使用,应在保障肖像权人合法权益的前提下,设定一定的豁免条件。同时,对于商业用途的ai换脸行为,必须严格规定事先取得肖像权人书面同意的程序,并明确相应的使用范围和期限。再者,强化平台的审核责任。作为ai换脸技术传播的重要载体,平台应承担起审核用户上传内容、防止侵权和违法信息传播的责任。立法应要求平台建立严格的内容审核机制,对涉及换脸的内容进行事先审查,并对违规行为采取及时有效的处理措施。
此外,完善侵权赔偿制度,也是立法的重要方面。针对ai换脸技术可能导致的肖像权、名誉权等侵权问题,应制定具体的赔偿标准,确保受害人能够得到及时有效的赔偿。对于恶意侵权、重复侵权等行为,应加大惩罚力度,提高违法成本,以起到震慑作用。
特别是,在立法的同时,还应加强公众的法律意识和道德教育。通过宣传普及相关法律法规,提高公众对ai换脸技术滥用风险的认识,引导其合理使用技术,尊重他人合法权益。在此基础上,倡导行业自律,鼓励企业加强技术研发和应用管理,推动ai换脸技术在合法、合规的轨道上健康发展。
ai犯罪别成ai技术发展的“附带品”
戴先任
近年来,随着ai技术的不断发展,越来越多的人在工作生活中开始享受到该技术所带来的全新体验。但随之而来的是,一些不法分子开始利用ai技术从事违法犯罪活动。ai犯罪“花样”翻新、层出不穷。除了ai换脸实施诈骗等,还有人利用ai软件对他人照片“一键脱衣”,“造黄谣”并四处散播;ai“换声”“偷声”假扮熟人……
ai技术本身是中性的,但如果使用不当,就可能带来“双刃剑”效应。所以,对于ai技术,要明确划清应用边界,防范“双刃剑”效应。而对于ai犯罪,则应严厉打击。为了有效打击ai犯罪,政法机关采取了一系列措施,维护ai技术良好的发展环境。2023年9月,最高人民法院、最高人民检察院、公安部联合发布《关于依法惩治网络暴力违法犯罪的指导意见》,明确对“利用‘深度合成’等生成式人工智能技术发布违法信息”的情形予以从重处罚。2024年4月23日,全国首例ai生成声音人格权侵权案在北京互联网法院一审开庭宣判,法院认定被告方使用原告声音、开发涉案ai文本转语音产品未获得合法授权,构成侵权,赔偿原告各项损失25万元,并书面赔礼道歉。
要想彻底打击ai犯罪,还需要标本兼治。ai技术发展迅猛,在一些领域监管存在一定的滞后性。对此,监管要能及时跟上,对于“花样”翻新的ai犯罪,要能见招拆招,及时予以痛击。同时,要加强全链条打击力度,针对ai犯罪特点,持续完善相关法律法规,提升打击ai犯罪的监管力量,并善于从典型案例中总结经验教训,堵住监管漏洞。
ai犯罪多借助于网络平台实施,网络平台也要首担其责,所以,还需进一步强化平台责任。网络平台一方面要加强监管,落实好网络安全主体责任,加强对自媒体账号的管理,对ai犯罪信息进行有效管控,另一方面要畅通举报渠道,及时制止ai犯罪行为,并严惩问题账号,绝不能让ai技术成了违法犯罪的“帮凶”,也不能让网络平台成了ai犯罪的“帮凶”。
从监管部门到app应用平台、网络平台及每位网民,都应守土有责,对各种ai犯罪说不。广大网友也要增强法律意识、网络素养,不滥用ai技术进行违法犯罪活动,对于“ai造谣”、ai诈骗等ai犯罪,要保持警惕,不要轻信,还应及时举报,避免自己在不自觉间成了ai犯罪的受害者或“帮凶”。
技术并无原罪,关键在于人们怎么规范使用它。社会各方要多管齐下,合力管住ai犯罪背后的“黑手”,不给ai犯罪任何可乘之机,绝不让ai犯罪成为ai技术发展的“附带品”。只有规范ai技术,守住ai技术应用法治底线,ai犯罪才不会从“潘多拉魔盒”中放出来,ai技术才能更好得到善用,造福社会。