眼见不一定为实,有图未必有真相。
在AI技术日新月异发展的当下,换脸和生成音频的AI合成技术已经不再是高科技的专利,而是越来越普及。
现如今,AI合成技术可以将人脸、声音、手势动作等多种元素深度合成,甚至可以实现使用合成的人物进行实时视频通话。
而伴随着技术门槛的降低,普通人也能够轻松掌握。
在这一背景下,人工智能造假行骗现象屡见不鲜,引发社会各界的广泛关注。
那么,如何去防范利用AI深度伪造技术的新型诈骗?又如何通过治理让AI技术能更好向善?《新闻1+1》对此进行了深入探讨。
本文将从多个角度探讨人工智能造假行骗的问题,特别是责任划分、法律应对以及防范策略等方面。
对外经贸大学数字经济与法律创新研究中心主任许可指出,随着深度伪造技术的发展和使用,涉及责任的主体众多,包括技术的研发者、分发者、使用者等。
对于利用技术实施诈骗的人,自然是第一责任人。
但在整个生态中,技术的研发者、软件的分发平台以及传播相关信息的人也可能发挥着一定的作用。
因此,要形成治理的合力,需要区分行为人的责任和平台责任。
人工智能的发展刚刚起步,用在违法违规、刑事犯罪方面的时间也不长,但我国的法律已经及时进行了应对。
许可主任表示,目前法律的实施和落地是关键。
新制度的出台仍在建规立制的阶段,需要各方的合力。
既需要监管部门将法规的细则落实到每一个主体身上,也需要通过社会的综合治理,实现个人要知道、主张自己的权益,企业要知道、践行自己的责任和义务。
这是一个循序渐进、逐渐完善的过程。
为了应对AI深度伪造技术的诈骗问题,国家网信办起草了《人工智能生成合成内容标识办法(征求意见稿)》。
该办法要求通过人工智能生成的内容必须加以明确的标识。
许可主任表示,这是一种通过信息披露实现的治理,在目前来看是非常有效的措施。
通过标识,人们能够明确识别出内容的真伪,从而降低被骗的风险。
针对老年人群体,防范AI换脸诈骗尤为重要。
因为信息鸿沟和技术鸿沟,很多老年人对新技术缺乏了解,容易被诈骗。
对此,提升老年人的素质和认识是关键。
包括媒体、教育机构、科研院所等都应普及相关知识,告诉老年人信息的真假需要认真甄别。
同时,家人尤其是孩子们应该多和老人沟通,告诉他们诈骗案例,让他们产生警惕。
通过社会和家庭的共同作用,让老年人提升认识。
人工智能合成技术的发展给我们带来了前所未有的机遇和挑战。
面对新型诈骗风险,我们需要形成合力,通过法律、技术、教育等多方面的手段进行防范和治理。
只有这样,我们才能让人工智能技术更好地服务于社会,造福于人类。
本文地址: https://www.gosl.cn/shbkwz/759a4f2cd3dee5fb2ff9.html
上一篇:纪念英雄邱少云逝世日...