期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于多模态大语言模型的攻击性模因解释生成方法
1
作者 林萌 戴程威 郭涛 《计算机研究与发展》 EI 2024年第5期1206-1217,共12页
随着5G的发展,攻击性言论逐渐以多模态的方式在社交网络上广泛传播.因此,攻击性模因的检测与解释生成对于提高内容审核效果、维护和谐健康的舆论场环境有着重要的作用.现有的攻击性模因解释生成研究只关注于攻击对象和攻击内容,忽略了... 随着5G的发展,攻击性言论逐渐以多模态的方式在社交网络上广泛传播.因此,攻击性模因的检测与解释生成对于提高内容审核效果、维护和谐健康的舆论场环境有着重要的作用.现有的攻击性模因解释生成研究只关注于攻击对象和攻击内容,忽略了模因包含的社会背景知识和隐喻表达手法,无法全面、准确地解释攻击性模因的含义,大大限制了解释的应用范围.为了应对这一挑战,提出一种基于多模态大模型的攻击性模因解释生成方法,通过增强攻击目标、攻击内容和隐喻识别等多种指令数据,利用其微调多模态大模型,以提升大模型对攻击性模因的解释生成能力.实验结果证实,该方法生成的解释具有3点优势:一是相比基线模型在BERTScore评估指标上提高了19%;二是解释中包含了攻击性隐喻表达的相关背景知识;三是在处理未见的模因数据时也表现出良好的泛化性能. 展开更多
关键词 攻击性模因 解释生成 多模态大语言模型 数据增强 指令微调
下载PDF
GPT-4模型的已知风险、控制策略及其启示
2
作者 韩秋明 《中国科技人才》 2023年第6期57-62,共6页
对OpenAI发布的技术文件深入分析,发现GPT-4大语言模型存在3类12种风险,分别是对人的误导(幻觉、虚假信息、有害内容、用户过度依赖)、对社会秩序的挑战(社会偏见、侵犯隐私、破坏网络安全、与其他系统交互进行“算法合谋”、主动寻求资... 对OpenAI发布的技术文件深入分析,发现GPT-4大语言模型存在3类12种风险,分别是对人的误导(幻觉、虚假信息、有害内容、用户过度依赖)、对社会秩序的挑战(社会偏见、侵犯隐私、破坏网络安全、与其他系统交互进行“算法合谋”、主动寻求资源)以及对国家经济和安全的影响(劳动力替代、常规和非常规武器扩散、加速国家竞争)。本文总结OpenAI采取的多种风险防控举措,如制定严格的使用规则、数据集和预训练后干预,设置细粒度个性化的内容分类器,以及寻找漏洞的“赏金猎人计划”等,并进一步提出对生成式人工智能采取分层治理、对大语言模型进行较长时间(半年以上)的对抗性测试以及细化合规免责制度以给新兴技术发展留下试错空间等建议。 展开更多
关键词 ChatGPT GPT-4 多模态大语言模型 生成式人工智能 风险防控
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部