公共关系专业人员使用生成式人工智能行为指引
公共关系专业人员
使用生成式人工智能行为指引
(2026年1月1日开始实施)
第一章 总则
第一条 目的和定义
为促进“人工智能+公共关系”的创新应用与规范发展,依据国家相关法律法规,参照国际最佳实践,制定本指引,指导公共关系专业人员(以下称“专业人员”)负责任、高效、安全地使用生成式人工智能,推动行业自律。相关定义如下:
(一) 生成式人工智能,是指利用大语言模型、多模态生成模型、智能体等技术,根据输入提示生成或合成文本、图片、音频、视频、虚拟场景等信息的技术体系,包括但不限于深度学习、强化学习方法。
(二) 公共关系,是指通过有计划、持续的沟通与关系管理,开展信息传播、舆情管理、品牌声誉维护、政策解读与倡导、危机沟通、利益相关者沟通等活动,以建立、维护和促进品牌方(包括政府、企业、社会组织等)与受众之间的互信与理解。
第二条 适用范围和宗旨
本指引适用于中国国际公共关系协会会员单位以及其他从事公共关系工作的机构和专业人员。指引遵循“人机协作、共创”理念,确立生成式人工智能的辅助工具定位,推动其与公共关系深度融合,鼓励运用人工智能提升传播和管理的效率。专业人员应承担生成内容的最终责任,坚持内容创造与输出的真实性、高质量和透明度,切实维护品牌声誉与公众信任,并防范虚假信息、算法偏见、伦理风险及人工智能幻觉等问题。
第三条 基本原则
专业人员使用生成式人工智能服务必须坚持以“人”为本,确保工具仅作为辅助而非替代人类专业判断,并遵循以下原则:
(一) 主体责任与内容质量 专业人员须对人工智能生成的内容承担主体责任,审慎选择人工智能工具,掌握战略决策、创意策划与伦理判断等核心职能,确保传播内容真实、准确、可靠,符合社会主义核心价值观。
(二) 数据安全与隐私保护 专业人员须采取必要的技术和管理措施,严格保障数据安全与个人隐私,不得将涉密或未脱敏信息传输至未经安全评估或保护的公共或外部生成式人工智能服务。
(三) 审慎审核与合规诚信 专业人员须秉持诚实守信,对人工智能生成的内容或数据进行鉴别、验证、测试与审核,消除事实错误、数据谬误、歧视偏见及人工智能幻觉等风险,确保符合法律法规与行业规范,维护传播诚信。
(四) 透明披露与社会责任 专业人员须遵循《人工智能生成合成内容标识办法》(国信办通字〔2025〕2号),在公开传播利用人工智能直接或显著辅助生成的内容时,依规进行显著、清晰标识,保障受众知情权。
第二章 行为指引
第四条 负责任地使用生成式人工智能
专业人员应保持对生成式人工智能的有效控制与最终决策权,确保其应用置于人类监督之下。所有关键输出(包括但不限于新闻发布、重要讲话、危机声明、投资者沟通等),必须经专业人员审核并承担最终责任。涉及国家政策、公共健康与安全、重大财经信息、重大危机事件沟通与传播等高敏感性场景,必须由人类完全主导。
第五条 实施全流程人工审核与验证
不得直接公开发布未经专业人员审核验证的人工智能生成内容。所有公开传播的生成内容,包括文本、图像、音频、视频、虚拟场景等信息,均须遵循“生成—验证—修正”或“生成—审核—发布”流程。
第六条 强制透明标识人工智能参与
公开传播由人工智能直接生成的内容或显著辅助生成的内容,须按照现行以及今后相关主管部门发布的标识办法和规范执行,正确添加显式标识或隐式标识,保护公民、法人和其他组织合法权益,维护社会公共利益。
第七条 保护数据安全与个人隐私
专业人员不得将工作中涉及国家秘密、商业秘密、客户保密要求的信息、个人隐私及其他敏感信息未加密传输至未经安全评估或防护的公共或外部生成式人工智能服务,应采取本地部署生成式人工智能等措施防范泄露。公共关系服务企业自主开发并部署人工智能工具的,须与数据所有权方签订数据保护协议,明确数据使用范围、存储与转移方式及保密责任,并定期开展数据安全自查。
第八条 审核公平性与避免偏见
专业人员应建立事前预防、事中检查与事后改进机制,评估人工智能生成内容在性别、年龄、民族、信仰、地域、职业、健康等方面的潜在偏见,并优化人工智能推理过程以确保传播内容的正确价值观与社会包容性,不得发布涉及歧视性或刻板印象的内容。
第九条 严禁操纵舆论与虚假信息
专业人员须严格遵循《网络安全法》《反不正当竞争法》等法律法规,维护传播生态的真实性与公正性,严禁利用人工智能制造虚假新闻、伪造民意、自动化刷评或操控网络水军。严禁使用可能涉及侵权甚至构成犯罪的“深度伪造”技术(包括但不限于虚假音视频、图像、身份等),防止对公众利益的潜在侵害。
第十条 保护知识产权与确保原创性
人工智能生成内容须经人类专业智慧深度加工,方可认定为原创作品,以避免侵权。专业人员须建立内部版权审查机制,确保人工智能生成的文本、图像、视频等内容不侵犯现有知识产权。引用第三方材料时,须遵循相关版权法规并正确标注出处。
第十一条 深化人机协作与权威验证
鼓励专业人员将人工智能用于数据分析、信息检索等基础性任务,以集中精力开展战略规划、创意构思、人际沟通等其他需要高水平专业判断的工作。在“人机共创”模式中,应建立透明、可追溯的验证与审核机制,以提升内容的真实性、专业性和社会价值。对于专业要求较高的领域(如科技、医疗、法律等),宜引入领域专家参与审核,并回溯原始数据、交叉比对权威资料等。
第十二条 建立风险分级审核机制
专业人员应根据人工智能生成内容的潜在风险等级,采取与之匹配的人工审核与验证深度:
低风险任务 如通用信息检索、数据整理、初步创意呈现、剪报摘要和报告等,可由人工智能辅助完成,并进行必要的人工审核。
中风险任务 如品牌创意设计、公关营销文案、社交媒体创意内容等,须由资深专业人员及相关客户服务人员进行审核与修正。
高风险任务 如可能引发舆情波动的新闻稿件、危机声明、涉及法律事务的沟通文件等,必须由公共关系专家、相关领域专家及品牌单位负责人共同进行深入审核,必要时开展多源验证和事实核查。
第十三条 加强持续学习与技能提升
专业人员每年应完成一定学时的生成式人工智能工具使用和伦理规范性学习,内容包括但不限于提示词工程、风险识别、偏见消减、人工智能幻觉防范、国家相关法律法规与行业规范等,以持续提升人工智能素养与伦理决策能力。
第三章 实施与保障
第十四条 发挥行业协会的指引与支持作用
中国国际公共关系协会人工智能专业委员会设立公共关系人工智能伦理小组,逐步积累人工智能应用案例库,并推动发展培训体系。协会致力于促进最佳实践共享,参与国际同行对话,引导“人工智能+公共关系行业”健康发展。对于经查实存在严重违反本指引行为的会员单位,协会可按照章程采取批评教育、要求整改、通报批评、取消会员资格等措施。
第十五条 国际传播与文化适应性
在国际公共关系传播中,专业人员应依据中国立场和国际普遍认可的资料开展跨文化正向传播,避免因文化理解差异引发误解,同时遵循目标国家或地区的法律法规(包括但不限于数据保护、内容管理等,如欧盟GDPR)。关注各国人工智能大模型训练数据的文化背景差异,并通过多模型验证等方法审慎评估多语言内容的准确性和文化适切性,平衡全球品牌传播一致性与当地市场独特性。
第十六条 指引的解释、修订与动态更新
本指引作为行业自律规范,遵循国家法律法规的最新要求,包括但不限于《网络安全法》《著作权法》《反不正当竞争法》等。当本指引内容与法律法规发生冲突时,以法律法规为准。本指引由中国国际公共关系协会负责解释。协会将根据人工智能技术的最新发展、法律法规的修订以及行业需求反馈,不定期更新、发布新版指引。