随着人工智能(AI)技术的飞速发展,AI合成技术已不仅仅局限于换脸或生成音频等简单操作,而是能够将人脸、声音、手势动作等多种元素进行深度合成,甚至实现使用合成人物进行实时视频通话。
这种技术的普及和应用也带来了新型诈骗风险。
如何防范利用AI深度伪造技术进行的诈骗?如何确保AI技术更好地服务于社会?《新闻1+1》就此进行了深入探讨。
本文将重点关注人工智能造假行骗的问题,探讨其治理策略和责任划分。
对外经贸大学数字经济与法律创新研究中心主任许可表示,深度伪造技术的发展和应用涉及多个主体,包括技术研发者、分发者以及使用者等。
在利用技术实施诈骗的人中,诈骗者无疑是第一责任人。
在整个生态中,其他主体如技术的研发者、软件的分发平台以及信息传播者等也可能起到一定作用。
因此,如何形成治理的合力成为了一个重要问题。
这涉及到区分两种不同类型的责任:一是行为人的责任,例如利用人工智能进行诈骗的人;二是平台责任,这需要平台发挥管理两边的责任,确保用户和人工智能技术的提供者之间的合规操作。
一旦发现违法违规行为,平台应积极采取措施制止信息的发布和软件提供,以实现整个平台治理的安全稳定。
我国法律已针对人工智能在违法违规和刑事犯罪方面的应用进行了及时应对。
法律的实施和落地是一个循序渐进、逐渐完善的过程。
这需要监管部门将法规的细则落实到每一个主体身上,同时也需要社会的综合治理,包括个人要知道并主张自己的权益,企业要知道并践行自己的责任和义务。
为了遏制利用AI深度伪造技术进行诈骗的行为,国家网信办起草了《人工智能生成合成内容标识办法(征求意见稿)》。
该办法要求通过人工智能生成的视频、音频、图片都必须加以明确的标识。
对外经贸大学数字经济与法律创新研究中心主任许可表示,这种标识办法是一种通过信息披露实现的治理方式,目前看来是非常有效的措施。
通过标识,人们能够明确知道内容是AI生成的,从而避免被误导或欺骗。
针对老年人群体,防范AI换脸诈骗更为重要。
由于信息和技术鸿沟,很多老年人可能无法识别真假信息。
因此,提升老年人的素质和认识是关键。
这包括媒体、教育机构、科研院所的共同努力,普及相关知识,教育他们如何甄别信息的真假。
孩子们也应该多和父母、长辈沟通,告诉他们相关的诈骗案例,让他们产生警惕。
通过社会和家庭的共同作用,让老年人提升认识并防范诈骗。
随着AI技术的快速发展,其带来的新型诈骗风险不容忽视。
为了确保AI技术更好地服务于社会,需要形成治理的合力,完善法律法规,加强平台责任,提高公众的认识和警惕性。
只有这样,我们才能使AI技术更好地向善发展,造福人类。
本文地址: https://www.gosl.cn/hlzxwz/dc37a3758e795d5e35d8.html
上一篇:全球医疗器械行业面临重大变革...