企业如何用大语言模型打赢社会工程反击战?
2其乐融融 发布于 2024/05/15 02:11:16
过去几年中,尽管企业在网络安全解决方案方面投入巨资,网络犯罪造成的经济损失却逐年上升。根据Cybersecurityventures的报告,2024年全球网络犯罪造成的损失将超过10万亿美元,成为全球“第三大经济体”。
阅读()评论(0)赞 ()
其乐融融 发布于 2024/05/15 02:11:16
过去几年中,尽管企业在网络安全解决方案方面投入巨资,网络犯罪造成的经济损失却逐年上升。根据Cybersecurityventures的报告,2024年全球网络犯罪造成的损失将超过10万亿美元,成为全球“第三大经济体”。
阅读()评论(0)赞 ()
其乐融融 发布于 2024/04/25 02:11:04
提示注入攻击是一种网络安全威胁,专门针对基于人工智能(AI)的系统,包括聊天机器人、虚拟助理及其他基于AI的界面。当攻击者以某种方式操纵AI模型的输入,导致模型执行意外操作或泄露敏感信息时,就会发生这类攻击。这种操纵可以诱骗AI将恶意输入解释为合法的命令或查询。
阅读()评论(0)赞 ()
其乐融融 发布于 2024/02/22 02:17:05
本文在了解机器学习相关概念的基础上,介绍了一个监督学习的示例,并使用梯度下降算法来训练目标预测函数。同时,本文也讨论了一种模型的欠适合示例,以及如何通过添加和扩展特征来实现纠偏。最后,本文还简要介绍了过度适合的危险性,以及如何对其予以纠正。
阅读()评论(0)赞 ()
其乐融融 发布于 2024/02/18 02:01:11
在2GB的DAYU200开发板上部署alpaca模型,实现OpenHarmony设备本地部署语言模型。(注意:本地部署语言模型对设备RAM要求较高需要4GB左右,加上swap交换空间就可以)。
阅读()评论(0)赞 ()
其乐融融 发布于 2023/12/13 02:11:24
网络安全是人工智能最大的细分市场,过去几年网络安全厂商纷纷宣称整合了人工智能技术(当然也有很多仅仅是炒作),其中大部分是基于基线和统计异常的机器学习。
阅读()评论(0)赞 ()
其乐融融 发布于 2023/12/12 02:08:25
大语言模型应用面临的两大安全威胁是训练数据泄漏和模型滥用(被应用于网络犯罪、信息操弄、制作危险品等违法活动)。
阅读()评论(0)赞 ()
其乐融融 发布于 2023/11/12 02:11:20
在这个网络威胁攻防日益失衡的时代,飞速发展的人工智能和大型语言模型(LLM)正成为推动网络安全变革的颠覆性力量。
阅读()评论(0)赞 ()
其乐融融 发布于 2023/11/10 02:11:27
在这个网络威胁攻防日益失衡的时代,飞速发展的人工智能和大型语言模型(LLM)正成为推动网络安全变革的颠覆性力量。
阅读()评论(0)赞 ()
其乐融融 发布于 2023/10/29 02:22:55
大型语言模型的幻觉主要是数据集和训练不足造成的,这些缺陷可以通过检索增强生成和实时数据得到缓解。
阅读()评论(0)赞 ()