打开网易新闻 查看精彩图片

走出去智库(CGGT)观察

11月15日,走出去智库(CGGT)举办网络研讨会“欧盟AI法案与企业合规:全面解析与实践指南”,邀请鸿鹄律师事务所合伙人龚钰律师、合伙人Tobias Bräutigam博士、顾问Feyo Sickinghe律师介绍《人工智能法案》内容以及合规方案。

来自百度、比亚迪、吉利汽车、理想汽车、TCL、荣耀、vivo、宁德时代、浪潮电子、闻泰科技、华大智造、华润集团、中车株洲、华住、小满科技、PayPal、SAP、reolink等单位的嘉宾参会。

在此次研讨会上,鸿鹄律师事务所中欧专家就欧盟《人工智能法案》的法规概览和特点、AI分级分类监管的整体框架、高风险AI系统相关的合规义务、中欧AI监管政策对比等方面进行了探讨,并分享中国企业出海的合规方案。

今天,走出去智库(CGGT)刊发此次研讨会嘉宾发言的重点内容,供关注AI出海的企业参阅。

正文

面对美国打压,欧盟AI市场逾显重要

走出去智库(CGGT)高级合伙人陆俊秀在主持中表示,当前许多中国人工智能企业已被美国纳入黑名单,面临着越来越严格的贸易和技术壁垒。

在特朗普再次当选总统后,虽然他可能会推动更加宽松的AI监管政策,优先考虑促进技术创新和自由市场,尤其是在美国本土的企业竞争中占据有利地位;然而,他也可能采取更加强硬的立场,继续加强对中国AI企业的打压,以维护美国在全球AI领域的主导地位。

在这种国际形势下,欧洲市场对中国企业的重要性愈加凸显。欧盟作为全球人工智能立法的先行者,其《人工智能法案》的出台,既旨在推动产业的规范发展,促进技术创新和市场竞争,也意味着企业将面临更加严格的合规要求,尤其是中国企业进入欧洲市场的准入门槛将进一步提高。这不仅可能影响中国AI企业的产品出口,还将对国际合作产生深远的影响。

因此,对于中国出海企业来说,了解并遵守欧盟《人工智能法案》及其相关法律法规(如《数字服务法》、《数据法案》、GDPR等)至关重要。企业必须构建完善的合规管理体系,确保合法合规,才能在全球化竞争中稳步前行。

陆俊秀总结到,就法规本身而言:欧盟《人工智能法》提出的规制框架在实际应用中面临一定挑战。首先,场景化规制显得尤为重要,因其能够根据行业和产品的具体情况评估风险。例如,相同的人工智能技术在不同应用场景下可能涉及不同的风险,场景化规制能够帮助更精准地判断风险和分配监管资源。单纯依赖行业独立的规制框架可能无法有效应对这些复杂的风险差异。

人工智能的风险是多样化的,不同场景下涉及的法益和风险层次不同。市场主体的风险偏好不尽相同,因此在监管时需谨慎处理,以避免过度规制或忽视潜在的社会风险。对人工智能的风险进行合理的分类和分层有助于平衡创新与保护公民基本权利之间的关系,避免监管过度或松懈。

合理的规制对象应当是人工智能的应用者,而非仅仅针对技术或组件本身。由于人工智能与具体产品高度融合,单独规制技术组件可能导致监管盲区,因此,应聚焦于整体产品或组织,确保全面的风险管理。此外,通过事后规制和鼓励企业自我规制,可以在促进技术创新的同时,确保企业提高安全性和透明度,减少不必要的行政负担。

针对中国出海企业,陆俊秀提出几点建议:

首先,面对美国和欧盟的严格监管,中国出海企业应迅速建立全面的跨境合规管理体系,特别是在人工智能领域,确保遵守欧盟《人工智能法案》及相关法律法规(如GDPR、《数字服务法》、《数据法案》)。建议企业设立专门的合规团队,定期审查和更新合规政策,尤其要关注欧盟对AI技术的监管动态,确保在数据保护、算法透明度和产品责任等方面符合最新要求。

其次,鉴于欧盟市场对技术合规要求的高度关注,中国企业应着重进行产品和服务的本地化适配,确保符合欧盟市场的监管要求。例如,企业需要依据具体场景(如自动驾驶、医疗AI等)进行风险评估和责任分配,减少合规压力,降低进入欧盟市场的法律风险。同时,企业应注重强化数据安全性与透明度,以增强市场信任度,提升国际竞争力。

面对国际政治经济环境的不断变化,中国AI企业应积极参与国际对话与合作,特别是在欧盟和其他监管地区的行业标准和政策制定中占有一席之地。通过与国际合作伙伴建立良好的法律和技术合作关系,企业不仅可以在合规方面获得支持,还能通过共享最佳实践提升自我规制能力,从而在全球竞争中占据优势。

欧盟《人工智能法案》概览与特点

鸿鹄律师事务所赫尔辛基隐私与数据保护部的合伙人和负责人Tobias Bräutigam在演讲中表示,首先要明确法案的目标,即保护公民免受人工智能可能带来的伤害,确保人工智能的开发过程安全可靠,同时尊重涉及基本权利和欧盟价值观的现行法律,进而创造稳定的法律确定性环境。

法案特点鲜明,遵循比例原则和基于风险的方法,意味着风险越高,所适用的规则就越严格。该法案独立于欧盟关于人工智能责任的立法轨道,追求最大限度的协调统一,以增强欧盟内部在人工智能监管方面的一致性。对于违反法案的行为,罚款力度最高可达全球年营业总额的 7%,这显示出法案的严肃性和对合规性的高度重视。

在法案的范围界定上,涵盖了多种主体。包括在欧盟境内将人工智能系统或通用人工智能模型投放市场或投入使用的提供者,无论其来自欧盟内部还是外部;其人工智能系统产生的输出结果在欧盟使用的欧盟境外提供者或部署者;在欧盟境内成立或位于欧盟境内的部署者;人工智能系统的进口商和经销商;以自己名义或商标将人工智能系统集成到产品中并投入市场使用的产品制造商,以及欧盟境外提供者的授权代表。其中,人工智能系统被定义为基于机器的系统,具备不同程度的自主性,在部署后可能展现适应性,能够根据接收到的输入推断并生成影响物理或虚拟环境的输出,如预测、内容、建议或决策等。通用人工智能模型则具有显著的普遍性,经过大量数据的自我监督训练后,能够胜任各种不同任务,且可集成到多种下游系统或应用程序中,无论其投放市场的方式如何。该法案具有域外效力,境外的 AI 供应商必须在欧盟内指定授权代表,以确保遵守法案规定。例如,一家在欧盟市场部署 AI 系统的中国医疗器械供应商,或欧盟使用 AI 系统部件的中国汽车公司分销商,均在法案规制范围内,但高风险系统在 2026 年 8 月前已上市的情况除外。

法案的实施时间线跨度较长。从 2021 年 4 月欧盟委员会提出提案开始,历经欧洲议会全会通过折衷法案、三方会谈、欧盟理事会和欧洲议会达成政治协议,到 2024 年 3 月 13 日欧盟议会通过法案,5 月 21 日欧洲理事会正式批准法案,最终在 2024 - 2027 年期间根据不同规定逐步适用,部分条款在一般适用日期后生效,一些特别条款如高风险系统通知、通用 AI 规则、AI 办公室设立等另有规定,监管沙盒则要求成员国在特定时间前建立。

AI 系统风险分类是法案的重要组成部分。风险极小或无风险的系统,如垃圾邮件过滤器,鼓励提供者适用自愿代码;有限风险系统,如聊天机器人,需通知与人类交互情况、确保生成内容可识别、通知使用情感识别或生物识别分类系统;高风险系统,如用于汽车或医疗设备中的 AI 系统,需进行合格评定和风险管理,承担透明度义务并接受人类监督;不可接受风险的系统,如认知行为操控、社会评分等,被禁止投放市场。

以汽车和医疗行业为例,该法案在这两个行业中与现有法规相互补充。在汽车行业,补充了《车辆通用安全法规》,针对人工智能制定了专门措施,如监控决策偏差、确保驾驶决策可解释性和系统透明性与可审计性。在医疗行业,补充了《医疗器械法规》和《体外诊断医疗器械法规》,强调人工智能系统的安全性、临床评估和上市后监测,通过强化风险管理协议提升系统可靠性。这种跨部门的考量体现了法案在不同行业应用中的针对性和协同性,对推动相关行业的健康发展具有重要意义。

高风险 AI 系统与执法

鸿鹄律师事务所在荷兰和布鲁塞尔的监管与公共事务部门的首席监管法律顾问Feyo Sickinghe 律师认为,基于风险的方式是法案对 AI 系统分类的核心原则。这一方式将 AI 系统分为不同风险等级,对于不可接受风险的系统,如存在潜意识操纵、社会评分、利用弱点、预测犯罪、特定生物识别分类(除合法情况外)以及某些实时远程生物识别系统(除例外情况)等行为的系统,被严格禁止。

而高风险AI 系统则涵盖众多关键领域,包括产品安全部件、生物识别分类、关键基础设施、情绪识别、就业、执法、教育、司法行政和民主程序等方面。例如,在产品安全部件方面,涉及缆车装置、个人防护设备、医疗设备等众多产品类别;在就业领域,用于分析求职申请、评估候选人、员工晋升或解雇等场景。这些高风险 AI 系统根据其所属类别和相关法规要求,被进一步细分为三类,不同类别在适用范围、合规期限和监管方式上存在差异,部分系统若能证明不构成对自然人健康、安全或基本权利的重大危害风险,可在满足特定条件下被排除在高风险范畴之外,但附件 III 所列系统中使用特征分析的情况除外。

高风险AI 系统的提供者承担着一系列严格且细致的义务。在数据治理方面,需确保训练、验证和测试数据的相关性、代表性、准确性和完整性;技术文档和记录保存要求全面记录系统信息,以证明合规性并保障可追溯性和上市后监督;透明度和信息提供义务旨在使部署者和其他相关方能够理解系统的运行逻辑和输出结果;人工监督需在技术和组织层面与风险、自主性和使用环境相匹配;准确性、稳健性和网络安全确保系统在运行过程中保持可靠和安全;此外,还需完成合格评定、注册、签署合规声明、展示 CE 标志等程序,以表明系统符合法案要求。部署者、进口商和分销商等AI企业也各自肩负着重要责任,部署者要确保 AI 系统实际应用符合提供者设计并遵守操作规程,进口商和分销商则需核实系统合规性,确保相关文件和标志齐全,并在发现问题时采取整改措施,与主管当局积极合作。

在执法方面,法案构建了一个全面且多层次的体系。由国家主管当局和人工智能办公室共同承担执法职责,同时建立了一系列支持性机构以促进成员国之间的紧密协作并提供专业技术支持。科学小组由独立专家组成,为通用 AI 模型的实施和执法提供专业知识支持;咨询论坛广泛吸纳行业、中小企业、民间社会和学术界等利益相关方,为法案实施提供咨询和技术建议;欧洲人工智能委员会由各成员国高级代表组成,协助委员会和成员国推进法案相关工作;国家主管当局负责监督高风险 AI 系统的合规情况和禁令执行,并开展市场监督。处罚措施由成员国主导实施,根据违规行为的性质和严重程度确定罚款金额,违反禁令的企业可能面临高达 3500 万欧元或全球年营业总额 7%(以较高者为准)的罚款,其他违规行为也分别设有相应的罚款上限,对于中小型企业和初创企业则适用较低的罚款标准。

展望未来,欧盟将通过人工智能办公室等关键机构全力推动法案的有效实施。在通用 AI 模型方面,将制定实践准则,明确其系统性风险相关的附加义务,并基于风险分类进行管理。通过协调各方资源,制定先进的实践准则,对通用AI 模型进行全面测试和评估,必要时要求提供信息并实施制裁,以确保其合规性和安全性。同时,积极与成员国和专家团体合作,通过专门论坛和专家组促进知识共享和经验交流,推动建立创新型的欧盟可信 AI 生态系统。这一生态系统将涵盖 AI 工厂、测试与实验设施、欧洲数字创新中心等多种支持结构,为企业提供最佳实践指导,助力其进入 AI 沙盒进行实际测试,从而在降低风险的同时,充分发挥人工智能的潜力,推动社会和经济的创新发展。

中欧AI监管对比与合规指南

鸿鹄律师事务所北京办公室合伙人龚钰从中欧 AI 监管格局的对比出发,深入探讨了中国企业在欧盟 AI 合规方面面临的挑战与应对策略,尤其强调了数据保护在 AI 合规中的关键地位和具体要求。

中欧在AI 监管方面存在多维度的差异在立法格局上,欧盟采取横向立法模式,对 AI 进行统一规制,而中国目前尚无针对 AI 的统一立法,但已针对推荐算法、深度合成、生成式 AI 等特定领域出台了专门法规。分级分类方面,欧盟基于风险对 AI 系统进行分类,而中国暂未明确 AI 风险分级,仅要求具有舆论属性和社会动员能力的 AI 系统提供者进行安全评估。主体角色界定上,欧盟根据 AI 供应链划分开发者、部署者、进口商、分销商等义务主体,中国则依据实际情况分为服务提供者、技术支持者、使用者等角色,且各角色义务有所不同。域外效力上,欧盟《人工智能法案》具有广泛域外效力,中国仅《生成式人工智能服务管理暂行办法》具有域外效力。监管格局层面,欧盟由成员国主导监管,AI 办公室负责协调和管理通用 AI 模型,中国则以网信办为首的多个监管机关均可能拥有执法权限。

尽管《人工智能法案》与中国监管要求在风险管理、记录保存等方面存在相似之处,但在实践中具体内涵、外延及合规方案仍需进一步深入研究和确认。因此,中国企业有必要基于该法案重新构建合规体系,充分考虑中欧法律差异,合理借鉴中国法项下部分合规工具,在明确自身AI 系统风险等级和角色定位的基础上,制定切实可行的合规方案。

AI 与数据保护的关系中,数据保护对于 AI 合规具有根本性意义。AI 治理与数据保护监管高度重合,欧盟数据保护机构积极参与 AI 监管辩论并发起多项调查,由于个人数据概念宽泛,数据保护对各行业影响深远,且各国数据保护立法对 AI 与数据保护法律的兼容性持谨慎态度。在 AI 模型训练方面,面临诸多挑战,如训练数据来源的合法性、敏感数据处理、隐私保护技术应用以及数据处理透明度等问题。当前,欧盟数据保护监管机构对于 AI 模型是否属于个人数据尚未形成一致观点,部分机构认为仅作为机器学习结果的 AI 模型不一定视为个人数据,但在某些情况下,如可实施模型逆向攻击时,模型可能被认定为个人数据,这引发了关于客户使用 AI 模型输出结果是否构成非法处理训练数据的潜在风险担忧。

AI 训练活动中的 “告知同意” 是数据保护的重要环节。处理个人数据以开发 AI 模型或系统的组织必须向数据主体履行告知义务,告知内容涵盖数据保留时间及标准、数据主体权利、数据接收者类别、跨境传输信息等,同时在间接收集个人数据或网页爬取数据时,需额外提供相关补充信息。告知方式应确保信息可访问性和可理解性,可通过多种渠道向数据主体传递信息,如在线表格、电子邮件、语音消息、网站公告等,并采用图表等方式详细说明数据使用情况,区分不同层级信息,优先展示基本信息,确保数据主体能够获取并理解相关信息。

合法利益作为处理个人数据的合法性基础在AI 系统开发中具有重要应用,但需满足严格条件。在利益合法性方面,所追求的利益必须在法律上明显合法、清晰准确且真实现存,如科学研究、便利公众获取信息、开发新系统功能、提供聊天机器人服务、改进产品或服务、检测欺诈内容或行为等可被视为 “先验合法” 的利益。同时,数据处理必须是实现目的所必需,遵循数据最小化原则,并确保不存在隐私侵犯程度更低的替代方案。此外,还需充分考虑 AI 系统对个人权利和自由的影响,权衡积极和不利影响,包括对参与数据处理各方的影响以及公众的合理预期,通过采取额外措施限制负面影响,如在数据收集、模型训练和使用过程中实施相应保护措施。在数据爬虫活动中,不同国家对合法利益依据的判断标准有所不同,法国强调数据处理规模、性质、数据主体预期、影响、弱势地位和保障措施等因素,荷兰未明确相关决定或指导方针,德国虽有案例但参考价值有限,企业在进行数据爬虫活动时需谨慎应对潜在的数据保护风险。

AI 系统开发或部署涉及处理个人数据时,实施数据保护影响评估(DPIA)是确保合规的关键步骤。根据法案规定,在不同情况下 DPIA 的实施方式有所不同。若在开发阶段能确定 AI 系统部署运营和使用情况,系统提供者负责部署时,需先执行通用 DPIA 并根据后续阶段风险补充完善;不负责部署但确定部署阶段使用目的时,提供者可提供 DPIA 模板供部署阶段数据控制者参考,而数据控制者仍有义务执行 DPIA。若开发阶段无法确定部署运营和使用情况,提供者仅进行开发阶段 DPIA,部署阶段控制者根据处理性质判断是否需要 DPIA,如需要可采用通用 DPIA。此外,考虑到实际情况可能发生变化,AI 系统在校准阶段结束时应在部署条件下重新评估,及时更新 DPIA,以确保数据处理活动始终符合法规要求,有效保护个人数据权益。

嘉宾介绍

打开网易新闻 查看精彩图片

鸿鹄律师事务所合伙人

龚钰

龚钰律师是鸿鹄律师事务所北京办公室合伙人,领导中国数据保护和网络安全团队。龚律师在网络安全和数据保护领域拥有丰富的经验,经常就科技、媒体和通信(TMT)领域的监管和交易相关问题提供法律服务,其客户包括来自各个行业领域的国内外跨国公司。龚律师尤其专长于处理涉及多法域的、跨司法辖区的数据合规项目,并协助客户解决复杂的法律问题。龚律师长期就TMT和隐私保护事宜撰写文章,为该领域的知名作者,其观点经常被媒体引用。

龚律师毕业于曼彻斯特大学,并获得法学学士学位。他拥有中华人民共和国法律职业资格和美国纽约州律师执业资格。龚律师为国际隐私权专家协会(IAPP)的成员,持有注册信息隐私专家/欧洲(CIPP/E)、注册信息隐私专家/美国(CIPP/US)和注册隐私信息管理经理(CIPM)证书。龚律师同时是全国信息安全标准化技术委员会(TC260)大数据安全标准特别工作组的专家,并担任上海国际仲裁中心仲裁员。

中国《商法》:2023-24法律精英:律界精锐;律师新星,2023

法律500强:中国:数据保护(外资所)新生代合伙人,2024;中国:TMT(外资所)新生代合伙人,2022,2024;中国:生命科学(外资所)高度推荐律师,2024;中国:公司法及并购(外资所)高度推荐律师,2024

2023中国法律大奖:提名年度新生代合伙人、TMT年度律师

《亚洲法律杂志》(ALB):中国十五佳TMT律师,2022;

Lexology CMA:TMT-亚太地区影响力律师(2024Q1、2023Q1Q2、2022Q2Q4)

ALM Law.com: 提名年度数据隐私律师,2024

打开网易新闻 查看精彩图片

鸿鹄律师事务所合伙人

Tobias Bräutigam

Tobias Bräutigam律师是鸿鹄律师事务所赫尔辛基隐私与数据保护部的合伙人和负责人,就复杂的隐私与数据问题为本地和国际客户提供咨询服务。作为欧洲领先的数据法规和保护专家,Bräutigam律师的执业范围涉及一系列事务,包括新产品和服务的开发、合同的审查和谈判、政策的起草和宣传活动的审查,并提供详细的建议。其还就芬兰和国际 GDPR 和数据法项目为客户提供建议,包括全球数据管理战略的实施、国际数据传输和本地数据保护合规性。Bräutigam律师定期为客户开发新的数据保护特定服务,例如 DPO 备份和支持服务,以及与法律和 IT 专家联合开展的培训计划。在2016年加入鸿鹄律师事务所之前,Bräutigam律师曾在微软和诺基亚担任高级法律顾问,负责全球隐私事务,领导微软移动隐私项目等。

Bräutigam律师毕业于赫尔辛基大学,并获得法学博士学位,且通过两次德国国家司法考试,具有芬兰律师执业资格(列入欧盟登记册),并且是德国(科布伦茨)律师协会注册律师。Bräutigam律师在国际隐私权专家协会(IAPP)担任过多种职务,其中包括欧洲顾问委员会委员、知识网主席和 IAPP 律师委员会委员。此外,Bräutigam律师还是剑桥隐私论坛 (Cambridge Privacy Forum) 的指导委员会成员,该论坛是为资深隐私专业人士举办的会议。Bräutigam律师担任两所大学的信息法讲师,并为有关数据保护问题的隐私出版物撰稿,且是芬兰首位也是目前为数不多的被国际隐私保护协会(IAPP)接纳为信息隐私研究员(FIP)的法律从业者。

钱伯斯:连续四年上榜欧洲地区TMT:Data Protection Band 2

打开网易新闻 查看精彩图片

鸿鹄律师事务所顾问

Feyo Sickinghe

Feyo Sickinghe律师是鸿鹄律师事务所在荷兰和布鲁塞尔的监管与公共事务部门的首席监管法律顾问。Sickinghe律师专注于科技、通信和数字市场监管,在 TMT领域拥有深入的业务知识和超过25年的深厚经验。Sickinghe律师曾代表荷兰和欧盟主要电信运营商的行业集团参与新规的制定和实施。2007 年加入鸿鹄律师事务所时,Sickinghe律师已在TMT行业积累了 10 年的监管经验。Sickinghe律师成立了两个电信运营商行业组织,并且是荷兰路权协会 (www.groepgraafrechten.nl) 的主席,该协会是由荷兰三角洲光纤公司 (Delta Fiber Nederland)、荷兰皇家电信 (KPN)、T-Mobile/Tele2 和 VodafoneZiggo 等电信基础设施供应商组成的行业团体,其经验为创立鸿鹄国际监管和公共事务团队奠定了基础。

Feyo Sickinghe律师还就立法程序中的战略、监管和政策观点提供建议,并在国家和欧盟层面就将《欧洲电子通信准则》转化为国家法律和正在进行的对《成本削减指令》(《基础设施连接法》)进行的审查、编号问题、透明度、安全性、通行权和访问权等问题进行游说。此外,Sickinghe律师就有关平台和数据经济(《欧盟数据治理法》、《数据法案》、《数字服务法案》、《数字市场法案》)、网络安全和人工智能监管方面提供建议。Sickinghe律师经常在会议和网络研讨会上发言,并为客户提供有关数据法规及其实施的培训。

Sickinghe律师毕业于乌得勒支大学,并获得法学硕士学位。他拥有荷兰律师执业资格。

法律500强:2022年度EMEA地区电信行业Tier 1关键律师

钱伯斯:2021年度欧洲地区在荷兰、欧盟和国际电信监管事务方面有值得关注的经验。对TMT领域有广泛覆盖,经常代表电信运营商参加针对ACM市场准入监管的决定的上诉程序。

Lexology:2023年荷兰电信客户选择奖得主。

主持人介绍

打开网易新闻 查看精彩图片

陆俊秀

走出去智库高级合伙人

清华大学工学博士

专业领域:地缘政治风险与合规研究、国别政策法律监管逻辑、企业地缘危机解决实务、企业跨境并购和投融资战略、金融科技研究。

过往经验:曾供职于国家开发银行总行研究部门8年,任研究院副处长;兴业银行股权投资部门5年,任子公司总经理。是中国商务部国际商务官员培训特聘老师,面向发展中国家政府经济金融部门官员,讲授区域经济发展与中长期投融资课程。

主导走出去智库(CGGT)“美国/国别政策和法律洞察”系列研究咨询,覆盖:ICTS、半导体显示、半导体材料、软件服务、消费电子、智能终端、光伏新能源等重点产业,涉及出口管制、经济制裁、网络安全、数据安全、隐私保护、投资审查等重点法律领域。曾为TCL 集团、TCL实业、TCL华星、TCL中环;字节跳动/抖音集团、腾讯、华为、OPPO、中国通号、中国商务部、北京市商务局、上海市商委、浙江省商务厅等提供咨询。

包括战略咨询、专项咨询、预警研究咨询:

◆《台海局势推演和全球化企业海外合规|战略咨询报告》

◆《美欧政策和法律洞察|预警双周报》

◆《企业政治风险、合规风险、舆情风险|公关战略洞察月报》

◆《重点国别数据监管政策洞察研判|咨询报告》

◆《欧洲并购战略规划和实务对策|咨询报告》

◆《“一带一路”新能源投资风险和实务指南|咨询报告》

延展阅读

▌地缘政治风险:

出口管制与制裁:

跨境数据监管:

全球科技竞争:

品牌声誉管理:

打开网易新闻 查看精彩图片

《战略公关洞察|政策监管和沟通传播|月报》

AI(人工智能)等技术推动产业升级,成为中国高科技企业转型发展的重要工具和手段。

走出去智库《跨境监管和战略公关|洞察月报》团队,持续服务中国头部高科技企业,华为、字节跳动、TCL科技等,助力中国企业在复杂的地缘政治背景下,理解跨境监管合规挑战,支持企业品牌公关部、政府事务部、合规部,进行跨国业务的战略传播沟通和风险规避的决策参考,主要内容包括——

- 地缘政策风险、合规风险、海外声誉风险的前瞻预警

- 针对跨国业务场景的利益相关方沟通传播议题和策略

- 政治风险、舆情风险演进的法律危机公关实务

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片