AI大模型使用中的数据安全
讲师:郭振杰 发布日期:03-19 浏览量:264
《AI大模型使用中的数据安全》
【课程背景】
2022年ChatGPT横空出世,打开了人工智能发展大门,AGI(通用人工智能)时代来临。经过3年的发展,国内外互联网类企业和传统企业大厂都已经进入了AI大模型的应用探索。目前AI大模型百花齐放,各家公司纷纷发布了自己的大模型产品。基础模型的发展已经成熟,应用开始发力,AI大模型的实际应用路径逐渐清晰,最佳实践公司已经开始了将AI大模型融入到业务中。头部IT软件,已经将AI大模型能力集成到自己的软件中,如微软将大模型集成到Windows中,金山公司将AI大模型能力融入到了WPS中,一些实用性的探索,也在很多企业开始。
AI的爆发,快速影响到了各类企业,但AI的使用安全问题却没有被引起重视,本课程讲向大家系统的介绍AI使用过程中容易发生的数据泄露风险和其他问题,并介绍如何应对。
【课程收益】
培训完结后,学员能够:
了解AI大模型和人工智能的发展情况
了解AI大模型的能力和适用场景
了解AI大模型的幻觉和带来的风险和应对措施
了解AI大模型使用过程中的数据风险和应对措施
了解AI大模型提示词的漏洞、风险和应对措施
了解AI大模型使用过程中的法律风险和应对措施
了解AI大模型私有化部署的数据安全风险和应对措施
【课程对象】企业管理人员、普通职员,希望了解人工智能人员
【课程时长】1-2小时
【课程特点】密切结合案例,贴近实际应用,培训完即可应用与工作;工具可用,使用平台工具皆国内可用。
【课程大纲】
现场体验AI大模型的应用案例
现场演示AI大模型的风险漏洞
现场演示和介绍AI大模型的幻觉
介绍AI大模型的幻觉原因和如何应对
介绍AI大模型的工作模式及数据风险
介绍AI大模型访问的途径和带来的数据风险
如何应对AI大模型使用过程中的数据泄露风险
提示词的作用和在大模型的工作机制
提示词引发的AI漏洞介绍和演示
应对提示词风险的措施当下法律缺位带来的法律风险和版权风险
私有化部署AI大模型的风险介绍
加强私有化部署AI的安全措施