京ICP备2022018928号-30 投诉举报:315 541 185@qq.com
科技的发展日新月异,当下,已经被称为AI时代,AI换脸、AI拟声技术已日趋成熟。
(相关资料图)
然而,恶作剧、诈骗、侵权等事件频出,使得人工智能技术被蒙上了一层阴影。
近日,大庆市一位女大学生反映,她的照片被同学制作成搞笑视频发到了微信群里,让她出尽了洋相。她不知对方的这种行为是否已经侵权,如果是,她该如何维权?
对此,记者在采访中发现,AI技术已呈现出诸多乱象,市民需谨慎应对。
被恶搞成猛张飞
刘洋(化名)是一名大三学生,在大庆市一所高校就读。
她和10多名比较要好的同学建了一个微信群,大家每天在群里分享着学习生活中的趣事,气氛一直十分和谐。
前几天,这份和谐被一个恶搞视频破坏了。
刘洋下课后打开微信,发现同学群里有近百条未读信息,进群后,看到大家都在热议两个视频,而这两个视频的主角竟是她和另一名同学,她们都变成了猛张飞的样子,手拿长矛不断挥舞,脸却是她和同学本人,配合上动作,十分搞笑。
刘洋说,这两个视频发上来以后,她和同学成了被取笑的对象。但当时自己并未过多在意,只觉得这是一场恶作剧,大家笑一笑也就过去了。
恶搞视频已扩散
刘洋没想到,只隔了一天,她又被“恶搞”了。
刘洋告诉记者,第二天,又有自己被恶搞的视频发到了群里。这一次,自己被合成了蜡笔小新的形象,搞笑的动画再一次让群里热闹了起来,让刘洋感到颜面尽失。
对此,刘洋既气愤又疑惑,不知对方是如何制作的视频,视频与以往PS合成的图片完全不同,脸和卡通人物的身体非常协调,竟毫无违和感。
刘洋立即找到了制作视频的同学,希望她不要再继续恶搞了。
可是,对方却毫不在意地表示只不过是“发着玩”,别太认真,并称以后还会制作更多有趣视频,这让刘洋感到更加气愤。
刘洋了解到,这个动画视频是通过AI换脸软件做的,她面部的视频则是从她朋友圈发的自拍照和视频中采集,进一步通过软件智能生成的。
刘洋表示,目前,两个恶搞视频已被发到了多个群里,给自己造成了很不好的影响。因此,她想追究对方的责任,制止对方不要再这么做。
AI换脸频惹祸
记者调查发现,由于合成效果好、操作更简便,AI换脸软件非常受追捧,只需要把相关照片和视频交给显卡和CPU,就能快速完成以往要几天才能完成的视频制作。
而相关软件更是不难获得,有的公司开发出了小程序,只需要简单操作就能将自己或他人的头像合成到固定的模板上;也有更为高端复杂的软件,可以通过PC端制作更加专业的换脸视频。
而这些软件程序在推广时,无不在宣称快速、完美换脸,大大忽略了其可能造成侵权甚至是诈骗等违法行为的风险。
记者了解到,近段时间“AI换脸”已惹了不少“麻烦”,例如,有“明星”被AI换脸技术合成了主播的脸在直播间卖货,该直播间已被起诉。
眼见不一定为实
记者在调查中还发现,除了大量换脸恶搞的合成视频充斥在各大网络平台外,还有利用AI换脸技术实施电信诈骗的案例。
福建的一名男子10分钟内被骗了430万元,而骗子就是利用视频、照片、声音通过AI技术进行换脸拟声,冒充他人进行微信视频通话,骗取了当事人的信任。
以往人们常说“眼见为实”,可是,随着科技发展,眼见也不一定为实。就在人们还没有尽情享受人工智能提供的服务时,骗子已经利用人工智能在诈骗了。在“朋友”借钱一事上,人们的警惕性虽有所提高,但是,现在如果只是看到视频通话中的人便打消疑虑,也有可能被骗。
未经同意已侵权
那么,人们该如何预防这种“高科技”诈骗呢?
警方提醒市民,日常使用网络时不要过度公开本人照片,尤其是少在各大网络平台上发自拍图片和视频,保护好自己的人脸、指纹、声音等生物信息。
其次,QQ、微信等社交账号的验证码和密码一定不能泄露给他人,避免账号被盗,继而让骗子有机可乘。同时,警方还提醒,使用照片AI合成的假脸大部分不会眨眼睛,而通过视频AI合成的目前还很难分辨,需要大家提高警惕,不要轻易相信。
同时,律师也表示,AI换脸属于深度合成技术,随意使用可能有侵犯肖像权和名誉权的风险。
根据《民法典》规定,无论是个人、平台,还是软件开发商,未经肖像权人同意,通过技术手段擅自使用或者上传至换脸APP中,供用户选择使用肖像的行为,都侵犯了他人的肖像权。
如果有人将他人的脸换到了不雅视频中,或者利用换脸软件对他人进行恶意丑化,就有可能侵犯了他人的名誉权。