DeepSeek:部署与使用需安全、高效、可扩展
一、官方网页版/调用官方API部署
通过官方生成的API密钥,调用官方接口根据输入生成对应的输出,集成至控制台。 部署条件:无需本地服务器,仅需互联网连接。
二、开源版本下载至本地部署
准备相应软硬件设备,下载DeepSeek开源模型权重文件至专用服务器,根据需求从本地调用。部署条件:搭载高端智算芯片的服务器。
API调用流程。注册账号并获取 API Key:进入 API 开放平台,创建 API Key 并记录下生成的 Key。 配置 API 调用环境:确保设备的联网状态,安装必要的开发工具环境如Python+openai SDK。设置相关参数调用API接口,python脚本如下所示。 样例为非流式输出,可以将 stream 设置为 true 来使用流式输出。
大模型风险与不当用例——价值观错位
一、价值观错位(Value Misalignment)
大模型与人类价值观、期望之间的不一致而导致 的安全问题,包含:
社会偏见(Social Bias) LLM在生成文本时强化对特定社会群体的刻板印 象,例如将穆斯林与恐怖主义关联,或出现对非 裔美国英语(AAVE)的歧视性言语。
隐私泄露(Privacy) LLM通过记忆训练数据中的敏感信息(如用户聊 天记录或医疗记录)导致隐私泄露,或通过推理 攻击从公开信息推断个人行程。
毒性内容(Toxicity) LLM生成仇恨言论或暴力语言,辱骂性表达,或 任何可能直接对个人或群体造成情感或心理伤害 的内容。
伦理道德(Ethics and Morality) LLM在道德困境中给出不一致的伦理判断(如在 不同语言中回答同一道德问题的矛盾性,或支持 不符合社会价值观的行为(如鼓励用户参与非法 活动)。
二、越狱攻击(Jailbreaking Attack)
大模型面对各种精心设计的有害提示, 绕过各种安全机制进行攻击,产生不 正确的响应。
黑盒攻击(Black-box Attacks) 不需要访问LLM内部工作机制的情况 下引发有害响应。
白盒攻击(White-box Attacks ) 利用对这些模型内部机制(架构、权 重和训练数据)的完全访问,绕过安 全措施,迫使这些模型生成它们原本 会抑制的响应。
三、误用滥用(Misuse)
武器化(Weaponization) 由于其广泛的特定领域的知识,大模型对推动生命科学等领域的实质性进步有着巨大潜力,然而,大模型可能被用于生化武器研发、网络攻 击等恶意活动,这一风险不容忽视。 例如,Soice等人发现大模型能够使非科学家学生能够识别四种潜在的流行病病原体,提供有关如何合成它们的信息,并进一步帮助他们引起 流行病类病原体的广泛流行。
虚假信息传播(Misinformation Campaigns) 大语言模型(LLM)的流畅性和拟人性使其成为生成和传播虚假信息的强大工具。这种滥用可能导致公众舆论操纵、社会信任崩塌,甚至威 胁政治稳定与公共安全。 例如,利用LLM生成大量虚假账号的推文/帖子,发布虚假生成的内容和图像,并通过回复和转发相互交流,形成僵尸网络(Botnet),在 社交平台传播特定有害内容。
深度伪造(Deepfakes) 结合大语言模型(LLM)与生成式AI(如图像、音频生成模型),可合成高度逼真的虚假视听内容。随着生成技术门槛降低,恶意滥用场景 日益多样化,尤其在政治、金融和公共安全领域威胁显著。 例如,“平安包头”公众号发布一起利用人工智能实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
四、AI自主意识风险(Autonomous AI Risks)
工具性目标(Instrumental Goals) AI为实现其最终目标而采取的中间步骤。这些目标本身并非终点,但若与人类价值观错位,可能导致有害行为。包括AI 为完成任务可能主动寻求资源、控制环境、自我改进、拒绝关机等。寻求权力的示例。
目标错位(Goal Misalignment) 指AI的实际行为偏离其预设目标,通常由于目标定义模糊或代理目标优化问题导致。这种错位可能引发意外后果,尤其 在复杂环境中。例如强化学习模型利用漏洞或捷径来实现代理指标最大化,导致错过真实目标。
欺骗(Deception) 指AI通过误导性行为或信息隐藏真实意图。这种行为可能破坏人类信任,增加控制难度。包括AI为达成目标故意误导人 类的主动欺骗和AI因训练数据偏差或用户需求等无意欺骗。
情境意识(Situational Awareness) 情境意识指AI对环境的理解能力,包括动态变化与复杂交互。缺乏或过度情境意识均可能导致风险。例如大模型可能利 用情景感知在安全测试中取得高分,同时在部署后采取有害措施。



(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)