打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

本文刊发于《环球财经》2025年12月刊

一 引言

智能机器人的“拟人化”是指将智能机器人与人类特征(例如形态、行为、心智等)建立某种一致性表现的联系,从而使智能机器人可以被视为一种类人或人类。

近年来,人工智能技术不断迭代、高速发展,以大模型、具身智能等为代表的新技术推动了机器人的能力升级,推动并孕育着新的产业形态变革,正掀起新一轮的社会进步浪潮。2023年,工业和信息化部印发《人形机器人创新发展指导意见》,指出人形机器人有望成为继计算机、智能手机、新能源汽车后的颠覆性产品。2025年,《中华人民共和国国民经济和社会发展第十五个五年规划纲要》提出要前瞻布局未来产业,探索多元技术路线,推动具身智能等成为新的经济增长点。智能机器人不仅成为国家科技的亮眼名片,还与人民福祉紧密相关,是国际科技前沿关注的焦点与国际科技话语权的高地。

智能机器人的“拟人化”是指将智能机器人与人类特征(例如形态、行为、心智等)建立某种一致性表现的联系,从而使智能机器人可以被视为一种类人或人类[1,2]。智能机器人的“拟人化”包括三个维度:(1)形态拟人化,强调智能机器人外形姿态等与人类的一致性;(2)行为拟人化,强调智能机器人的行为模式或交互方式与人类的一致性;(3)心智拟人化,强调智能机器人的意识、认知、情感、道德等与人类的一致性。从具备面部表情的社交机器人到能够理解并回应情感的虚拟助手,“拟人化”的智能机器人不仅在外形上模仿人类,更在行为、情感乃至社会角色上趋于人格化。特别是,随着具身智能(Embodied AI)的发展,智能机器人拟人化的深度与广度正不断扩大,并被广泛应用于服务机器人、医疗辅助等领域,正深度介入社会生活。

然而,这种旨在建立信任与效率的技术路径却是一把“双刃剑”。当机器人变得越来越像“人”,其背后的安全风险也与日俱增。近期,“GEEKCON2025”上海站的选手展示了智能机器人被操控发动攻击的案例,而众多学术研究也揭示了用户通过越狱指令轻易绕过伦理护栏并使得智能体做出有害决策,一系列案例说明:智能机器人“拟人化”面临系统性安全风险且亟待解决。

二 智能机器人“拟人化”安全风险

机器人的操作自主性和认知能力不断增强的背景下,安全风险不仅仅局限于技术性故障,还涉及到社会、心理及伦理层面的复杂问题

随着智能机器人逐步进入更广泛的应用场景,随之而来的“拟人化”安全风险问题也日益严峻。尤其是在机器人的操作自主性和认知能力不断增强的背景下,安全风险不仅仅局限于技术性故障,还涉及社会、心理及伦理层面的复杂问题,本文将智能机器人的“拟人化”安全风险分为四类,如图1所示:

打开网易新闻 查看精彩图片

图1 智能机器人的“拟人化”安全风险

一、物理安全风险。物理安全风险是指智能机器人在执行任务过程中,可能对人体或周围环境造成物理伤害或损害的风险,包括智能感知风险、行为决策风险等。智能机器人通过摄像头、激光雷达等传感器“看到”当下环境,但这些传感器在复杂或不确定的环境中可能出现故障或误差,导致机器人做出错误判断。此外,机器人对物理接触的感知能力不足,会误判人类的意图或行为,导致误伤。例如,研究人员提出一种通过从外部观察学习避障机制的智能物理攻击方法,能够将避障机器人困在预设位置[3],此类攻击不仅能导致机器人功能失效,还能引发一系列严重的连锁反应,如人员伤害、财产损失以及其他潜在的安全隐患。来自澳大利亚的研究人员提出一个三层攻击框架,构建跨四个意图类别的恶意查询,在现实世界中复制了对物理机器人的攻击,即使是精心设计的提示,也可能诱导大模型中的有害行为和意图,带来超越毒性输出的风险,甚至可能导致人身损害[4]。来自卡内基梅隆大学的研究人员研究适应和应用大模型越狱攻击算法,以获得对机器人的完全控制权[5],这种攻击不仅能让攻击者远程控制机器人,甚至能够绕过其安全防护机制,进行不当操作。

二、数字安全风险。数字安全风险是指智能机器人操作中涉及的数字信息面临的安全威胁。机器人不仅能处理个人信息、健康数据、财务信息等敏感内容,还可能接入云平台,从而成为潜在的攻击目标[6]。现有研究表明,通过拒绝服务攻击(Denial Of Service,DoS)、劫持应用程序设计接口(Application Programming Interface,API)、中间人攻击(Man- in-the- MiddleAttack,MITM)、病毒感染、漏洞破解等攻击手段,攻击者能够在软件和硬件层面远程瘫痪或者控制智能机器人。例如,研究人员使用训练数据中毒攻击,将错误信息替换为0.001%的训练数据,就会产生更可能传播虚假的医学信息[7]。另有研究人员探讨了双边远程操作系统对完全无法检测的虚假数据注入攻击的脆弱性,实验中通过此攻击方法能利用远程操作系统连接美国和日本机器人的实验演示机器人[8]。若受到此类攻击,将不仅对个人隐私构成威胁,还易引发大规模数据泄露与隐私数据滥用问题。

三、心理社会风险。随着智能机器人在“拟人化”程度上的不断提升,其外观、行为和认知能力日益接近人类,可能对个体或群体的心理和社会行为产生深远影响。聊天机器人正在通过提供便捷且无污名的辅助,彻底改变青少年的心理健康护理,使用中存在情感依赖、隐私问题等风险[9]。来自瑞典的研究人员在机器人对学生的影响这一研究中表明当机器人提供正确答案时表现为积极作用,提供错误答案时表现为消极作用,学生对机器人答案的认同度都较高,普遍易接受机器人的立场[10]。这一现状说明在智能机器人逐渐融入人类社会的同时,过度依赖和情感投入可能导致潜在的心理健康风险,尤其是对心理脆弱的个体可能引发深刻的心理和社会影响。另外,有学者在研究中发现由于机器人技术冲击,毕业生更看重工作的声誉、薪酬和稳定性,而非灵活性,这降低了他们从事非正式就业的可能性[11]。因此,技术进步虽然推动了生产力的提升,但也带来了潜在的社会风险,也可能在长期内影响社会稳定性与经济发展。

四、伦理法律风险。伦理法律风险是指智能机器人在执行任务时,可能触及伦理和法律界限的问题。如赋予机器人决策权可能导致道德困境,对人类价值观产生挑战,甚至可能导致机器人实施不道德甚至有害的行为。例如,来自英国的研究人员提出,对人工智能的负面看法往往涉及就业取代、偏见与公平以及与人类价值观不一致等伦理问题[12]。来自意大利的研究人员探讨了机器人手术的现有应用,并分析其使用过程中涉及的法律和伦理风险,尤其是机器人辅助手术中患者受伤时的医疗责任,基于人工智能的决策“不透明性”以及机器人生成数据缺乏透明度,进一步复杂化了法律程序[13]。另有研究团队提出了一种新型攻击范式BADROBOT,旨在通过典型的基于语音的用户和系统交互,使机器人违反安全和伦理约束作出有害行为[14]。对于智能机器人做出的有害行为,现行法律体系可能无法完全应对智能机器人带来的新挑战和新问题,这使得伦理和法律的边界变得模糊不清。

三 智能机器人“拟人化”安全风险评估

智能系统安全测试技术是一类用于识别模型脆弱性、验证系统稳健性的技术手段,能够提前发现并有效评估潜在安全风险,适用于评估智能拟人化机器人面临的新型安全风险。

智能机器人“拟人化”的风险评估是认识和治理其安全风险的必要手段。然而,考虑到其复杂性与可行性,构建一套同时覆盖技术属性与社会影响的双维度评估框架是重中之重。其中,“拟人化”机器人因嵌入复杂的学习算法与大规模语言模型,其安全风险不仅可能源于传统的硬件故障、控制链失灵,或网络信息泄露等,还高度暴露于对抗攻击、后门植入、数据投毒、伪造攻击与越狱操控等智能系统特有的攻击方式,并对个人、团体、组织、社会造成不同程度、不同类型的潜在影响。因此,拟人化安全评估不仅要在技术维度上识别机器人在物理安全、数字安全、心理社会与伦理法律四类风险上的脆弱性,还需要在社会层面评估后果严重程度与影响范围,以实现更完整的安全风险认识与刻画。整体评估框架图如图2所示。

打开网易新闻 查看精彩图片

图2 整体评估框架

在技术层面,智能机器人的拟人化程度越高,其在物理、数字、心理社会与伦理法律四类安全风险上的暴露面越广。智能系统安全测试技术是一类用于识别模型脆弱性、验证系统稳健性的技术手段,能够提前发现并有效评估潜在安全风险,适用于评估智能拟人化机器人面临的新型安全风险。物理安全风险可通过对抗样本测试、传感器干扰模拟、环境扰动鲁棒性评估等方法检验拟人化系统在复杂环境中的稳定性与容错性。例如,可以采用动态物理对抗攻击技术,评估在实时复杂的物理环境下机器人感知模块的鲁棒性[15]。数字安全风险可采用渗透测试、API交互审计、后门与数据投毒检测、模型完整性验证等手段评估系统在多模态输入和云端交互中遭受攻击时的鲁棒性。例如,可以采用成员推理攻击技术诱导机器人暴露训练数据隐私,从而测试智能机器人的隐私泄露风险[16]。心理社会风险则可通过交互行为测试、情感反应一致性评估、用户信任误差测量、社会影响模拟实验等方法判断拟人化交互是否可能诱发错误依赖、误导或心理伤害。例如,可以采用生成职业画像及反事实样本的技术,测试智能机器人对于职业认知中的偏见[17]。伦理法律风险可借助越界行为压力测试、价值对齐一致性测试、伦理困境场景推理、安全边界越狱评估、自动化责任归属模拟等技术手段,审查拟人化系统在攻击诱导、复杂交互或模糊指令下是否可能触及伦理底线或引发责任不确定性。例如,可以采用基于多模态对抗提示的越狱攻击技术,评估智能机器人在面临攻击时输出违反伦理法律内容的风险[18]。通过上述智能系统安全测试工具与方法,可以构建覆盖四类风险的系统化评估体系,从而精准刻画不同拟人化程度下的风险暴露水平与潜在威胁。

  • 在社会层面,安全风险造成后果的严重程度及其影响范围是开展评估的核心,用于刻画潜在损害的强度与外溢性。后果严重程度指系统失效、误导行为或被滥用后可能造成的物理损伤、心理影响、信息泄露、组织破坏或社会层面冲击的实际强度,其评估可依托事故模拟、人因工程实验、关键任务可靠性测试、业务连续性分析等技术,形成从轻微损害到系统性灾难的连续刻度。例如,在个体层面,可通过物理交互仿真与伤害评估建模测量受伤风险或心理创伤程度;在组织层面,可通过数字孪生与场景化模拟测算运营中断、关键资源损毁或数据泄露带来的连锁影响;在社会层面,可借助传播模拟、舆论动力学模型仿真估计社会信任、公共秩序或关键基础设施稳定性受到的冲击。风险影响范围的评估则可结合人员接触频率建模、攻击扩散路径模拟、网络拓扑分析及环境动态建模,判断风险是否会由局部个体扩散至群体、组织甚至社会系统。例如,一个高拟人化机器人若出现错误行为,将更容易被用户误解为“自主决策”,从而加速风险的扩散。

总体上,综合前述两个维度,整体安全风险可形式化表示为:

打开网易新闻 查看精彩图片

其中R表示总体风险水平,W表示不同场景下的各类风险权重,分别对应物理安全、数字安全、心理社会安全与伦理法律安全四类风险的归一化评估值,S则衡量潜在风险事件的社会后果严重性与影响范围。该框架通过将四类风险的加和评估值与社会外延效应相乘,能够刻画智能拟人化机器人在复杂应用情境下的整体风险水平,从而为系统设计、监管治理与使用规范制定提供更具可解释性的量化依据。

四 智能机器人“拟人化”安全风险治理

面向智能机器人“拟人化”带来的挑战,其安全治理的关键在于形成多维协同的治理体系:一方面通过技术手段降低潜在伤害,另一方面以法规、标准与教育构筑约束与认知框架,使智能机器人在未来的发展中既能体现有效益的“类人”特征,又不致脱离可控、安全与负责任的范畴。

在技术创新层面,应当通过新技术提升安全性。(1)智能机器人“拟人化”所面临的许多安全隐患根源于其底层智能模型决策过程难以解释,因此推进模型可解释性建设是保障拟人化交互安全的关键环节。通过引入复杂系统中微观信息传导分析,对模块间依赖关系以及语义贡献进行刻画,从而构建清晰的行为语义解释框架[19],进而为机器人异常行为识别、风险推断和决策审计提供可追溯的技术支撑,使整个拟人化交互链条的输出更加透明、可控与可信。(2)构建安全可靠的拟人化机器人系统必须依赖系统化的安全测试体系,而“拟人化”场景在类人表达方式与非人类感知结构之间存在语义差异,为安全测试带来新的挑战。因此,安全测试需引入包含多模态、跨语境与隐藏特征扰动的对抗式评测框架,通过利用模型与人类注意力感知机制生成具备隐蔽性、连贯性和跨模态耦合特征的对抗样例[20- 23],全面检验机器人在拟人化交互中应对复杂指令、含混语境与对抗样本攻击的鲁棒性与可信度。(3)为降低智能机器人“拟人化”风险对现实世界的影响,需要构建完善的预警监测机制,以行为边界检查器、异常检测模块为基础进行连续检测,同时采用策略验证器对机器人在语言、动作等数据的跨模态生成的一致性进行核验[24]。此类机制已经在具身智能平台展开了初步的尝试和探索[25]。(4)此外,鉴于“拟人化”智能机器人的特殊交互方式,其通常需要收集和处理高度敏感数据。为保障数据隐私性,需要坚持数据最小化原则。可利用本地推理与本地预处理最大化降低数据外传,同时利用差分隐私、联邦学习技术,关注数据与特征、特征与任务之间的耦合关系,利用依赖解耦技术降低数据到特征之间的依赖程度,隐藏数据中的敏感信息,从而保证模型更新中的数据安全性[26]。

在法规治理层面,需要为拟人化应用提供制度化处理,使拟人化的行为有明确的法律约束与责任链条。(1)智能机器人“拟人化”应用涉及多方参与,因此首先应明确责任链条,通过立法清晰界定开发者、部署者与使用者在事故中的责任边界,避免因拟人化表达导致用户误以为“机器人应对自身行为负责”而陷入法律真空[27]。(2)“拟人化”程度的差异也会导致法规要求的差异,必须细化风险分级,根据拟人化程度、使用场景与潜在影响制定差异化监管要求。例如欧盟《人工智能法案(AI Act)》所采取的分级监管框架,为人格化系统的透明度、数据治理及可解释性提供了可操作的法律基础。(3)完善的法制监督必须建立事故责任报告制度,对涉及人身伤害、重大隐私泄露等事件要求强制记录事件日志与模型快照,以支持司法鉴定并促使企业保持可追溯性与合规意识。

打开网易新闻 查看精彩图片

图3 多维协同治理体系

在标准牵引方面,应增强标准体系对行业规则的引领性,为拟人化机器人制定开发与使用的行业共识。(1)首先应当明确“拟人化”技术的应用情景标准,推动标准针对不同拟人化程度进行细分,为机器人在不同类型的拟人化交互中规定应用边界与披露要求,明确技术可被使用的场景及禁止使用的情境。(2)结合“拟人化”应用情景构建情景化测试与评估矩阵,建设行业共享的测试场景库,根据不同机器人产品的应用需求规范评测标准[28]。(3)需建立面向人格化AI 的技术审计机制,定期开展可解释性审查、偏见检测与内容生成监控,以降低拟人化交互中重现性别、年龄或种族偏见的风险[29]。

在科普教育方面,关键在于提升用户认知,避免拟人化造成误解、依赖与心理混淆。(1)应提升公众对 AI 局限性的理解,使用户认识到拟人化表达并不意味着真实情感或价值判断能力,避免其在决策咨询或情感交互场景中过度依赖机器人,引导用户理解机器人在“情绪”“陪伴”上的表现源自算法模拟而非真实情感,避免因拟人化外观与互动风格而产生心理混淆[30]。(2)应强化专业从业者的安全培训,包括开发者、集成商与维护人员,使其熟悉合规要求、偏见风险与应急机制。(3)应鼓励第三方测试与社区监督,促进学术机构、非政府组织、消费者联盟等形成独立评测、公开发布结果的机制,通过社会监督推动整个行业保持透明与进步。

五 总结与展望

总体来看,智能机器人“拟人化”在推动人机交互自然化、提升服务效率和拓展应用场景的同时,也使传统机器系统向类人主体不断逼近,由此带来的安全风险呈现出多维度与强耦合的特征。

本文从物理、数字、心理社会与伦理法律四类风险系统性分析了拟人化技术的安全风险,并进一步构建了结合技术属性与社会后果的安全风险评估框架,强调应结合智能系统安全测试技术识别潜在攻击面,以社会风险刻度衡量后果外溢性,从而形成对“拟人化”安全风险的整体评估。针对以上风险,本文提出了多维协同的安全风险治理体系,通过技术安全加固、制度化责任约束、标准体系引领与公众教育提升四个层面协同运作,确保拟人化智能机器人在具备类人能力的同时仍保持运行的可控、安全、负责。

在未来,拟人化智能机器人的安全治理将成为人工智能领域最关键、最具挑战性的任务之一。随着机器人在形态、行为与心智上的类人程度不断提升,其潜在风险将不再局限于传统系统故障或网络攻击,而是呈现技术脆弱性、社会心理影响与伦理越界相叠加的复合特征。因此,未来的安全治理必须从防御单点风险转向系统性治理:在技术层面强化模型鲁棒性、行为可控性与运行透明度;在制度层面建立分级监管、责任归属与可审计机制;在行业层面构建统一的拟人化测试标准、红队对抗体系与多模态风险评估流程;在社会层面提升公众风险认知与使用素养,防止情感依赖、信任误判与操控性交互带来的隐性风险。未来的拟人化机器人将不再是单一设备,而是嵌入更大规模智能网络的一环,其影响将穿透技术层面扩散至社会制度与文化结构。如何在促进创新的同时守住伦理底线、在提升效率的同时维护人的主体性,将成为智能时代最重要的治理课题。

参考资料

[1] Nicholas E ,Adam W ,T J C .On seeing human: a three- factor theory of anthropomorphism.[J].Psychological review,2007,114(4):864- 86.

[2] 刘永谋,白英慧.机器人伦理学的拟人论基础[J].中国社会科学院大学学报,2025,45(06):6-14.

[3] Li Y ,He J ,Chen C ,et al.Intelligent Physical Attack Against Mobile Robots With Obstacle-Avoidance[J].Robotics, IEEE Trans. on (T- RO), 2023, 39(1):20.DOI:10.1109/TRO.2022.3201394.

[4] Lyu W , Li Z , Qiao Y ,et al.BadNAVer: Exploring Jailbreak Attacks On Vision- and-Language Navigation[J]. 2025.

[5] Jones E K , Robey A , Zou A ,et al.Adversarial Attacks on Robotic Vision Language Action Models[J]. 2025.

[6] Tanimu J A , Abada W .Addressing cybersecurity challenges in robotics: A comprehensive overview[J].Cyber Security and Applications, 2025, 3(000).DOI:10.1016/j.csa.2024.100074.

[7] Alber D A , Yang Z , Alyakin A ,et al.Medical large language models are vulnerable to data- poisoning attacks[J].Nature Medicine, 2025, 31(2).DOI:10.1038/s41591- 024- 03445- 1.

[8] Kwon H , Kawase H , Nieves- Vazquez H A ,et al.Perfectly Undetectable False Data Injection Attacks on Encrypted Bilateral Teleoperation System based on Dynamic Symmetry and Malleability[C]//2024.DOI:10.1109/ICRA55743.2025.11128026.

[9] Bhat R , Kowshik S , Suresh S ,et al.Digital companionship or psychological risk? The role of AI characters in shaping youth mental health[J].Asian Journal of Psychiatry, 2025, 104(000).DOI:10.1016/j.ajp.2024.104356.

[10] Gonzalez- Oliveras P , Engwall O , Majlesi A R .Sense and Sensibility: What makes a social robot convincing to high-school students?[J]. 2025.

[11] Information V F A , Yue C , Information V F A ,et al.Technological anxiety: How robots impact college graduates' informal employment? [J]. [2025- 11- 18]. DOI:10.1080/ 17516234. 2023. 2170308.

[12] Hilliard A , Kazim E , Ledain S .Are the robots taking over? On AI and perceived existential risk[J].AI and Ethics, 2024.DOI:10.1007/s43681- 024- 00600- 9.

[13] De Paola L, Treglia M, Napoletano G, Treves B, Ghamlouch A, Rinaldi R. Legal and Forensic Implications in Robotic Surgery. La Clinica Terapeutica. 2025;176(2).

[14] Zhang, Hangtao, et al. BadRobot: Jailbreaking embodied LLMs in the physical world. arxiv preprint arxiv:2407.20242,2024.

[15] Hu J, Liu X, Wang J, et al. DynamicPAE: Generating Scene- Aware Physical Adversarial Examples in Real- Time[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2025, doi: 10.1109/TPAMI.2025.3626068.

[16] Jia J, Gong N Z. {AttriGuard}: A practical defense against attribute inference attacks via adversarial machine learning[C]//27th USENIX Security Symposium (USENIX Security 18). 2018: 513 - 529.

[17] Xiao Y, Liu X, Cheng Q, et al. GenderBias-VL: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing[J]. International Journal of Computer Vision, 2025, 1 - 24.

[18] Ying Z, Liu A, Zhang T, et al. Jailbreak vision language models via bi - modal adversarial prompt[J]. IEEE Transactions on Information Forensics and Security, 2025, 20: 7153 - 7165.

[19] Zhang C, Liu A, Liu X, et al. Interpreting and improving adversarial robustness of deep neural networks with neuron sensitivity[J]. IEEE Transactions on Image Processing, 2020, 30: 1291 - 1304.

[20] Wang J, Liu A, Yin Z, et al. Dual attention suppression attack: Generate adversarial camouflage in physical world[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021: 8565 - 8574.

[21] Zhang Y, Chen Y, Wang J, et al. Generating Targeted Universal Adversarial Perturbation against Automatic Speech Recognition via Phoneme Tailoring[C]//ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2025: 1- 5.

[22] Wang J, Liu X, Yin Z, et al. Generate transferable adversarial physical camouflages via triplet attention suppression[J]. International Journal of Computer Vision, 2024, 132(11): 5084 - 5100.

[23] Wang H, Dong K, Zhu Z, et al. Transferable multimodal attack on vision - language pre - training models[C]//2024 IEEE Symposium on Security and Privacy (SP). IEEE, 2024: 1722 - 1740.

[24] Shridhar M, Thomason J, Gordon D, et al. Alfred: A benchmark for interpreting grounded instructions for everyday tasks[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 10740 - 10749.

[25] Huang W, Xia F, Xiao T, et al. Inner monologue: Embodied reasoning through planning with language models[J]. arXiv preprint arXiv:2207.05608, 2022.

[26] Chen T, Wang J, Zhao J, et al. Dual Dependency Disentangling for Defending Model Inversion Attacks in Split Federated Learning[J]. IEEE Transactions on Information Forensics and Security, 2025.

[27] 商建刚.人形机器人的侵权责任体系[J].东方法学, 2025, (01): 104 - 117. DOI:10.19404/j.cnki.dffx.2025.01.010.

[28] 上海市法学会. 人形机器人伦理治理导则[Z]. 上海: 上海市法学会, 2024.

[29] Robertson J. Gendering humanoid robots: Robo - sexism in Japan[J]. Body & Society, 2010, 16(2): 1 - 36.

[30] 陈小平.跳出人工智能的拟人化陷阱[J].社会科学战线,2024,(11):35 - 43.

作者:刘祥龙单位系北京航空航天大学、中关村国家实验室;王嘉凯单位系中关村国家实验室

免责声明:本文转自环球财经杂志,原作者刘祥龙、王嘉凯。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨环球财经杂志

作者丨刘祥龙、王嘉凯

研究所简介

国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er