本文转自:人民网研究院

人民网北京6月24日电 人民网研究院组织编写的第一本智能互联网蓝皮书《中国智能互联网发展报告(2024)》今日在京正式发布。其中,上海杉达学院数字商法研究中心研究员唐树源和中国社会科学院法学研究所研究员支振锋共同撰写的《2023年隐私与数据安全保护:总结与展望》一文指出,人工智能正在从以“以模型为中心”转向为“以数据为中心”。一方面,大模型训练数据集规模持续增长;另一方面,高质量的数据成为大模型的迫切需求。当前数据质量参差不齐、内容陈旧,隐私泄露、网络攻击、数据滥用等问题频发,给个人隐私和各类数据安全带来严重威胁。

文章认为,在大数据分析和机器学习领域,隐私数据的大规模收集和处理可能会侵犯隐私权,同时增加数据被滥用的风险。以生成式人工智能为例,GPT-4等大模型的训练需要天文级数据,“喂数据”和生成的全过程都可能产生侵权和数据泄漏等风险。数据安全风险方面,随着越来越多的行业和领域接入人工智能生成式大语言模型,数据泄露和合规风险日益突出,作为生产要素的数据一旦泄露,将给企业、行业带来巨大的经济和声誉损失。尤其是对于ChatGPT、双子座(Gemini)等服务器在海外的模型,如果在使用过程中输入敏感数据,可能引发数据跨境流动的安全问题,会带来数据安全甚至国家安全威胁。

文章表示,科技发展和数字化进程令隐私权面临威胁。数据滥用将侵犯公民权利。各国政府已认识到敏感数据及其滥用带来的安全问题,并致力于加强监管。但以国家安全名义过度收集并滥用数据的潜在威胁尚未得到充分关注。政府未来需权衡科技创新与数据安全。数据收集与流动对科技创新及自动化至关重要,但未来政府将更难权衡数据应用带来的创新优势与隐私权损害。同时,随着数据日益集中在部分私营企业手中,政府或将加速实施数据开放政策,这有利于推动广泛创新,但可能引发更大规模的隐私泄露。(王京)