当前位置:主页 > 头条 > 正文

赵保国:为人工智能建立安全即发展的新理念|宅男财经

发布时间:2026-03-17 已有: 位 网友关注

  人工智能正加速向各类经济社会场景渗透,成为培育新质生产力的核心引擎,各行各业都在积极引入人工智能技术增效赋能,工具逐步普及化与规模化。然而,技术红利往往与风险挑战如影随形,生成式人工智能的爆发不仅带来了恶意滥用、系统性失灵等问题,其不确定性更成为当前全球治理的核心难题。

  人工智能技术发展的“双刃剑”

  技术发展与安全问题从来都是相伴相生。生成式人工智能大幅降低了内容生成的门槛,这也使得伪造犯罪低成本化和低门槛化,造成了“劣币驱逐良币”的现象。在实际应用中,人工智能技术可以实现深度伪造,正在系统性动摇现有社会信任基础,不法分子普遍开始利用人工智能技术合成虚假影像和声音来实施针对性的精准诈骗,普通民众难辨真假,深受其害。

  当前,人工智能技术在带来便利的同时,也伴生了诸如涉诈、虚假信息传播及仿冒名人广告等新型风险。也有少部分高校学生在科研论文中使用人工智能工具生成论文,极大地影响了科研。关于人工智能生成内容在论文中的合规性,目前教育部门还没有出台统一的政策指导。

  此外,在关键数据领域,如果国家重要部门有在直接采用基于公有云架构的通用模型,那么由于大模型特有的记忆机制,可能也会导致敏感数据在交互过程中被无意识地窃取或滥用。

  为人工智能建立安全即发展的新理念

  面对上述错综复杂的风险,我们必须确立安全即发展的新理念,推动治理重心从静态规则制定向动态日常执法进行转变。

  检测防范在平台侧和技术供给端,鉴于目前各企业安全技术能力参差不齐,因此还是建议相关部门组织研发或授权标准化的大模型安全护栏以及AIGC内容标识检测工具,并要求相关服务商强制部署,以实现实时拦截恶意内容的生成与传播,定期巡检以防范日益增加的AI伪造内容。

  同时,建议国家把人工智能深度伪造鉴定或者检测平台,作为人工智能安全基础设施进行建设。而对于掌握海量高价值数据、涉及国家机密的政府部门及重要行业,需要全面推行大模型的私有化+本地化的专用部署战略,确保数据不出域、不共享。

  用户是最后一道防线,守护用户的正确认知是根本,建议有关部门或行业协会为普通民众提供AIGC鉴伪产品,并在主流社交平台嵌入一键鉴伪插件,确保公众日常在遇到疑似虚假信息时有工具可用、有地方可查。

  目前,我国智能手机的使用已经完全普及,如果能够在终端侧提供AIGC鉴伪功能,在用户数据不用上云端,个人隐私不会泄露的情况下,做到防伪防诈,也是一个不错的途径。这不仅能提升全民信息素养,更能有效应对人工智能时代可能带来的潜在风险。

温馨提示:所有理财类资讯内容仅供参考,不作为投资依据。