初中老师小李自从使用AI备课以来,五分钟就制作出了生动有趣的教案,包括图片、视频和互动问答。 “以前备课需要两个小时,现在我可以节省更多时间关注学生的个人情况,还可以单独定制专属练习。”
独居老人陈爷爷通过孩子们提供的智慧音箱找到了新的乐趣。 “小智不仅听游戏、陪我聊天,当我忘记吃药时,她还会主动提醒我。我孙子们的生日她都记得。”
29岁的小王原本是一名文案。因为擅长AI中的“对话”,他成功转型为提示词工程师。 “关键是指令要足够清晰。”从智能客服到人工智能制图员,大型模型正在创造前所未见的新工作岗位。
电流当前,大规模人工智能模型正在加速赋能千行百业,推动人们生活快速改变。这个有能力、有思想的“数字伙伴”加速了它融入我们的日常生活。然而,每一次技术飞跃都不可避免地伴随着新的挑战。随着人工智能的扩展和嵌入,它也暴露了数据隐私和算法偏差等潜在风险。我们迫切需要构筑安全防线,推进这场深度智能化变革,安全赋能更美好的未来
高速发展背后的“暗礁”
——数据隐私与安全的界限变得模糊。一些单位直接使用开源框架搭建大型组网模型,让攻击者在未经许可的情况下随意访问内部网络,造成数据泄露和安全风险。据公开案例,某单位工作人员在处理内部公文时非法使用开源AI工具。因为计算机系统默认访问公网且未设置密码,敏感数据被境外IP非法访问下载。
——技术滥用和虚假信息的产生。利用深度学习AI算法进行自动化数据处理,最大程度地实现图像、音频和视频的智能模拟和伪造,这种技术被称为deepfake。当这项技术被滥用或恶意使用时,将会给个人合法权益、社会稳定乃至国家安全带来诸多风险和挑战。国家安全部门工作发现,境外某些反华势力利用深度伪造技术制作虚假视频,企图在境内传播,欺骗舆论、制造恐慌,威胁我国国家安全。
——算法偏差与决策“黑匣子”。人工智能的判断来自于它学到的数据。如果训练数据本身 h由于社会偏见或代表性不足等问题,大型模型可能会增加歧视。 Iptests 表明,一些人工智能系统地偏向西方观点。当研究人员用中文和英文询问相同的历史人工智能问题时,他们发现英文的回答会刻意回避和淡化一些历史事实,甚至提供包含历史错误信息的内容,造成重大误解,而中文的回答则相对客观。
安全规则:“数字伙伴”的三项规则
——原则一:描述“活动范围”。为了实现“减权限”,网络AI不处理机密数据,语音AI不采集环境声音,智能助手不保存支付密码。关闭“数据共享”、“云空间”等不必要的访问权限。
——原则二:评估“数字足迹”。养成定期清理AI聊天记录的习惯,changing AI工具密码、更新杀毒软件、检查账户登录设备。同时,避免下载和使用来源不明的大型模型程序,并警惕身份证、银行账户或其他敏感信息的请求。
——规则三:优化“人机协作”。在质疑人工智能时,提示语明确禁止人工智能过度推断,并要求人工智能揭示来源或思维过程,对重要信息进行跨平台验证,理性识别人工智能产生的结果。尤其是涉及到政治、历史、意识形态等话题时,更应该有独立思考的意识,辩证地看待人工智能的答案,避免陷入“人工智能错觉”。
国家安全机构警告
安全是发展的前提,发展是安全的保证。只有了解技术并安全地使用技术,大规模AI模型才能出现金科技,将成为推动社会发展的正能量。用户应提高安全意识,谨慎授权大型号软件权限。如发现AI大模型存在窃取个人信息、敏感数据出境等危害网络安全的问题,可通过12339国家安全机关举报受理热线、在线举报平台(www.12339.gov.cn)、国家安全部微信公众受理账号接收通道、或当地安全接收通道公众号代理举报。