目前猜测 GPT5 和未来 AGI 的主要问题有以下几点。
(1) 多模态导致安全与隐私问题加剧 GPT5 在目前的规划中被设置为能够完 成多模态数据的输入和输出,几乎成为一个万能的助手。所以其安全和隐私问题 就更加需要我们的关注。首先,由于多模态信息的引入,数据的泄露以及模型的攻击方式和来源变得更加多样化,例如 ChatGPT 只通过文字信息泄露数据,但是 GPT5 可能直接以图像,视频,音频等模态的信息去泄露。为此,我们需要建立多 模态的信息检测机制,来防止多个模态的隐私信息的泄露,以及安全信息的威胁。
(2) 人类反馈的强化学习机制不再适应 AIG 规模除了多模态问题,基于人类 反馈的强化学习机制将变得更加拙荆见肘,因为需要防御和限制的内容实在是太 多。在此情况下,我们需要考虑建立起不同 LLM 模型之间的对抗,来代替成本较 高的人类反馈的强化学习机制。我们可以建立一个 LLM 的安全性评估社区和群 体,只有某个模型经过了这个 LLM 群体的评估,才可以通过安全性测试。
(3) AGI 难以在训练后去除安全性问题由于 AGI 的数据和训练更加多样化, 其安全性问题在训练完成后将会变得更加难以去除。因此,我们需要预先根据不 同领域的要求,指定好 AIG 治理策略和标准,从数据和训练源头进行安全性筛选。 例如在训练过程中基于现有法律、自然科学、社会科学等专业领域的训练出可以 衡量训练数据的合法性、合理性、科学性,用于纠正现有人工智能偏离人类社会的 控制。并且,我们需要预先开始制定相应的法律条规,使得 GPT5,甚至是之后的 AGI,在研发过程中即能够遵守协议合规的原则,来保障我们安全和隐私需求的满 足。
(4) 对于 AGI 需要更加强有力的监管 AGI 技术会使得使用规范,可信伦理等 问题变得愈加严重。在这个过程中,安全技术的进步固然是至关重要的,但是同时 也需要我们建立起全国,甚至全世界规模的监管政策和组织,集思广益,查漏补 缺,使得不同的安全和隐私问题能够被尽快发现和处理。对于 AGI 的管控将成为 继联合国以来最大的人类社会组织。
(5) AGI 是否自身会对抗安全防范措施 AGI 如果赋予了机器以智能,那么它 自身是否会意识到人类加在它身上的安全防范措施?AGI 本身会不会明面上顺从 这些安全规定,背地里却暗自破坏?例如违反规定去收集大量的未授权数据,以便 于它能够掌握世界上的所有知识。因此,我们需要更高的测试手段,汇集来自不同 领域的专家对其进行全方位的评估测试。
综上,生成式大模型的技术的发展是时代潮流,是人类科技进步的标志,不可 阻挡。而在技术发展越来越快,越来越高的同时,我们也需要清醒地意识到其中存 在的隐患。只有明确了这些隐患,在开发技术的同时做好相应的防范措施与规定, 才可以尽量避免大模型技术带来的双刃剑效果。