AI大模型使用中的数据安全

讲师:郭振杰 发布日期:03-19 浏览量:264


《AI大模型使用中的数据安全》

【课程背景】

2022年ChatGPT横空出世,打开了人工智能发展大门,AGI(通用人工智能)时代来临。经过3年的发展,国内外互联网类企业和传统企业大厂都已经进入了AI大模型的应用探索。目前AI大模型百花齐放,各家公司纷纷发布了自己的大模型产品。基础模型的发展已经成熟,应用开始发力,AI大模型的实际应用路径逐渐清晰,最佳实践公司已经开始了将AI大模型融入到业务中。头部IT软件,已经将AI大模型能力集成到自己的软件中,如微软将大模型集成到Windows中,金山公司将AI大模型能力融入到了WPS中,一些实用性的探索,也在很多企业开始。

AI的爆发,快速影响到了各类企业,但AI的使用安全问题却没有被引起重视,本课程讲向大家系统的介绍AI使用过程中容易发生的数据泄露风险和其他问题,并介绍如何应对。

【课程收益】

培训完结后,学员能够:

了解AI大模型和人工智能的发展情况

了解AI大模型的能力和适用场景

了解AI大模型的幻觉和带来的风险和应对措施

了解AI大模型使用过程中的数据风险和应对措施

了解AI大模型提示词的漏洞、风险和应对措施

了解AI大模型使用过程中的法律风险和应对措施

了解AI大模型私有化部署的数据安全风险和应对措施

【课程对象】企业管理人员、普通职员,希望了解人工智能人员

【课程时长】1-2小时

【课程特点】密切结合案例,贴近实际应用,培训完即可应用与工作;工具可用,使用平台工具皆国内可用。

【课程大纲】

现场体验AI大模型的应用案例

现场演示AI大模型的风险漏洞

现场演示和介绍AI大模型的幻觉

介绍AI大模型的幻觉原因和如何应对

介绍AI大模型的工作模式及数据风险

介绍AI大模型访问的途径和带来的数据风险

如何应对AI大模型使用过程中的数据泄露风险

提示词的作用和在大模型的工作机制

提示词引发的AI漏洞介绍和演示

应对提示词风险的措施当下法律缺位带来的法律风险和版权风险

私有化部署AI大模型的风险介绍

加强私有化部署AI的安全措施

分享
联系客服
返回顶部