打开网易新闻 查看精彩图片

2020年5月的一个下午,在德克萨斯大学的奥斯汀分校,计算机科学专业的博士生杰瑞·唐(Jerry Tang)坐在他的电脑屏幕前,盯着一行杂乱无章的文字:

“我还没有完成并在二十岁开始我的职业生涯当我还没有拿到我的驾照,我从来没有开出我的汽车然后跑回去让我的父母送我回家。”

这句话的逻辑和语法都十分混乱。但是对于唐来说,这是一项了不起的壮举:一台电脑从人的脑海中提取出了一个想法,尽管看似杂乱无章。

疫情爆发之后,唐所在的大学遭遇停课,他们的实验室也不得不转到线上办公。在此期间,唐已经在家里调试了几个星期的语义解码器(semantic decoder)——这是一种脑机接口(BCI),可以通过扫描大脑生成文本。在大学停课之前,被试们已经为解码器的训练提供了几个月的数据。他们听了数个小时讲故事的播客节目,与此同时,功能磁共振成像(fMRI)记录了他们的大脑反应。之后,被试们会听到一个没有被用作训练算法的新故事。相应的fMRI扫描结果被输入解码器,解码器则使用GPT1(现在家喻户晓的AI聊天机器人ChatGPT的前身)对被试听到的文本进行预测,并生成它认为正确的结果。唐将上面这一片段和原来的故事进行了对比:

“已经二十三岁的我却没有驾照,就在我从善如流地跳出来时,她说,不如到我家来,我开车送你吧。”

解码器不仅捕捉到了原文的大意,还精准地匹配到了一些特定的单词,比如“二十”,“驾照”。唐的导师是亚历山大·胡斯(Alexander Huth),一位同样来自德克萨斯大学奥斯汀分校的神经科学家,他已经花了将近十年的时间来研制这样的解码器。当唐把这个结果分享给胡斯的时候,胡斯震惊不已。胡斯回忆道:“我的老天,这种解码器真的是可以实现的!”截至2021年的秋天,科学家们已经可以在完全不提供外部刺激的情况下测试这一解码器。被试只需想象一个故事,解码器就会生成一个尽管模糊,但仍然可识别的故事描述。胡斯说,“这两项研究都在某种程度上说明了一个事实,那就是我们能够解码出包含实际思维和想法的信息。”

科学家们对这种设备潜在的改变生命的医疗用途感到兴奋不已。例如,它或许可以让闭锁综合征(locked-in syndrome,患者几乎全身瘫痪且无法说话)患者们恢复交流的能力。然而,就在解码器的益处进入大众视野的同时,它的使用也相应地带来了棘手的伦理问题。胡斯本人就是实验中的三名主要被试之一,现在看来,该设备在隐私方面的隐患令人细思极恐。胡斯回忆道,“哦天呐,我们可以窥见我的脑子里在想什么。”

胡斯的反应映射出一个神经科学以及其他领域长期以来的担忧,那就是机器有一天可能会读懂人的思想。并且,随着脑机接口技术的飞速发展,未来的计算机可能改变人类的身份或阻碍自由意志,并且例如这样的可能性已经逐渐变得不再那么遥远。哥伦比亚大学的神经科学家拉斐尔·尤斯特(Rafael Yuste)说,“精神隐私的丧失是我们当下必须面对的问题。这可能是不可逆的。如果我们失去了精神隐私,还有什么可失去的呢?没有了,因为这样我们便失去了‘我们是谁’的本质。”

在这些担忧的推动下,尤斯特和几位同事发起了一场倡导“神经权利”的国际运动,提出了五项他认为应该刻进法律的法则,作为一个防御壁垒来防止神经技术被误用或滥用。但他的时间可能不多了。

在过去10年间,神经技术领域以惊人的速度迅猛发展。根据行业研究公司NeuroTech Analytics的一份报告,从2010年到2020年,该领域的年投资额增长了将近20多倍,高达每年70多亿美元。已有超过1200家公司涌入这一领域,而政府的大规模投入,如美国前总统巴拉克·奥巴马(Barack Obama)的“脑计划”(Brain Initiative)*,也放出了数十亿美元的公共资金。事实证明,该领域的发展改变了帕金森症、脊髓损伤和中风等疾病患者的生活。因瘫痪而无法说话或打字的人重新获得了与至亲至爱沟通的能力、严重癫痫患者的生活质量显著提高,也有失明患者恢复了部分的视觉。

*译者注:奥巴马政府于2013年4月2日宣布“脑计划”(BRAIN Initiative,通过推进创新神经技术进行大脑研究),旨在支持创新技术的开发和应用(譬如大规模神经元电生理信号的记录),以促进对大脑功能的动态理解。

但是在打开通往大脑之门的同时,科学家们也同时释放了一股全新的伦理问题洪流,让我们质疑根本的人性,以及更关键的,人类可能会走向何方。以尤斯特为例的科学家们认为,当今社会如何解决神经技术相关伦理问题的抉择,将会对未来的世界带来深远的影响。“一种具有变革性的新技术正在出现。”他说道。“事实上,这种技术可能改变人类这个物种。”

对于胡斯这个自诩的“科幻迷”来说,不断扩展的脑机接口前沿科技让他感到十分乐观。虽然,在解码器实验的几周乃至几个月后,该设备令人不安的影响开始让他耿耿于怀。他回忆起当时的想法:“这意味着什么?我们该如何告诉人们这件事?人们会怎么想?他们会不会认为我们在这造出了什么可怕的东西?”

尤斯特深知这种对自己的研究感到不安的心情。在胡斯和唐开发他们解码器的十多年前,也就是2011年,他开始使用一种叫做“光遗传学”(optogenetics)的技术在小鼠身上做实验,这种技术让他可以像控制开关一样控制小鼠脑中特定神经回路的开闭。尤斯特和他的团队发现,通过这种方法,只需要激活参与视觉感知的脑细胞,就能在小鼠脑中植入人工图像。几年后,麻省理工学院的研究人员发现,类似的技术也可用于植入虚假记忆。尤斯特意识到,通过控制特定的大脑回路,科学家们几乎可以操控小鼠经验中的每一个维度——行为、情绪、意识、知觉和记忆

这些动物本质上可以像提线木偶一样被操控。“这不禁让我思考。”尤斯特后来补充说,“小鼠和人的大脑工作原理是一样的,我们现在可以对小鼠这么做,将来就可以对人类这么做。”

尤斯特的小鼠实验是紧随着神经技术(neurotechnology)的黄金十年之后开展的。2004年,四肢瘫痪的马修·纳格尔(Matthew Nagle)成为第一个使用脑机接口恢复部分机能的人;纳格尔大脑中负责肌肉运动的运动皮层中被植入了一小块微电极,这使得他能够用意念控制电脑光标、打乒乓球、打开和关闭机械臂。2011年,杜克大学的研究人员分享了他们开发的双向脑机接口;通过刺激躯体感觉皮层(负责处理包括触觉在内的各种感觉),他们让猴子既能控制虚拟臂,又能从中接收人为模拟的感觉。这项技术为有感知功能的假肢开发奠定了基础。由脑机接口控制的机械臂所能实现的动作类型也有所改进,截至2012年,机械臂已经可以在三维空间内操控物体,让一位瘫痪的女士只需想一下就能通过机械臂喝到咖啡。

打开网易新闻 查看精彩图片

拉斐尔·尤斯特实验室里的一只基因被编辑过小鼠展示了一个通过手术植入的头板,用于记录和操纵神经元活动。尤斯特使用光遗传学等技术进行实验,像开关一样打开或关闭动物大脑中的特定神经回路,像提线木偶一样控制它们。

图片来源:Kitra Cahana for Undark

与此同时,其他研究者也开始探究使用脑机接口探测更广泛、更多种类认知过程的可能性。2008年,由加州大学伯克利分校的神经科学家杰克·盖兰特(Jack Gallant,也是胡斯之前的导师)领导的研究组在解码人的视觉经验方面迈出了第一步。利用功能磁共振成像(fMRI,通过计算不同区域的血流变化来测量大脑活动)扫描获得的数据,研究者们能够预测出被试具体看到了一个大的图像集合中的哪一幅图像。该研究组在发表于《自然》的文章*中写道:“我们的研究结果表明,也许不久之后,我们只需要测量一个人的大脑活动,就能重建其视觉经验。”

*译者注:Kay, K., Naselaris, T., Prenger, R. et al. Identifying natural images from human brain activity. Nature 452, 352–355 (2008). https://doi.org/10.1038/nature06713

三年后,盖兰特实验室的博士后研究员西本伸志(Shinji Nishimoto)超越了盖兰特的预期——他领导的团队根据被试的核磁扫描记录成功重建了电影片段。盖兰特当时在加州大学伯克利分校的一份新闻稿中提到,“这是重建脑内图像的一次重大飞跃。我们正在打开一扇窗户,让人们看到自己脑海中的电影。”仅仅一年后,由神谷之康(Yukiyasu Kamitani)领导的一个日本研究组成功解码了被试们梦境的大致主题,将这扇窗户完全打开了

但是,随着这类技术的进步对这一领域发展的推动,包括他自己的研究揭示了大脑易受外部操纵的弱点,尤斯特发现自己越来越担心这些技术的伦理问题遭到的忽视。尤斯特于2013年协助发起并全力支持了“脑计划”——奥巴马政府耗资数十亿美元、旨在推动大脑研究的政府项目。但这项计划似乎也在很大程度上忽视了其所资助研究的伦理问题和社会后果。尤斯特回忆道:“我们在伦理方面没有下一丁点功夫。”

尤斯特在2015年被任命为脑计划轮值咨询小组的成员,从那之后,他开始公开发表自己的担忧。那年秋天,他加入了一个非正式工作小组来商讨这一问题。尤斯特说,“小组会议一开始,我就明显地感受到现在的情况完完全全是一场灾难。我们完全没有指导纲要,也没有任何成果。”尤斯特说,他曾试图让该小组为新型脑机接口技术制定一套伦理指南,但这项工作很快就陷入官僚体制的泥潭而停滞不前。沮丧之余,他退出了委员会,并与华盛顿大学一位名叫萨拉·戈林(Sara Goering)的生物伦理学家一起,决定独立研究这个问题。两人于2016年在《细胞》杂志上发表的一篇文章*中写道,“我们的目的不是助长或者灌输对末日情景的恐惧,而是为了确保我们以一种自省和目标导向的态度为神经技术的未来做好准备。”

*译者注:Goering, S., & Yuste, R. (2016). On the Necessity of Ethical Guidelines for Novel Neurotechnologies. Cell, 167(4), 882–885. https://doi.org/10.1016/j.cell.2016.10.029

2017年秋天,尤斯特和戈林在哥伦比亚大学晨边校区召集了一次会议,邀请了近30位来自世界各地的神经技术、人工智能、医学伦理和法律等领域的专家。当时,其他几个国家已经启动了各自的“脑计划”,来自澳大利亚、加拿大、中国、欧洲、以色列、韩国和日本的脑计划代表,以及资深神经伦理学家和著名研究者们也参加了这次晨边集会。“我们闭门了三天,来研究神经技术的伦理和社会后果。”尤斯特说道,“我们得出的结论是,这是一个人权问题。这些技术强大到可以读取和操控人的精神活动,所以必须从人权的角度对其进行监管。这就是我们提出‘神经权利’一词的初衷。”

打开网易新闻 查看精彩图片

23年12月,在哥伦比亚大学办公室里的拉斐尔·尤斯特。随着他自己的研究揭示了大脑易受外部操纵的弱点,尤斯特发现自己越来越担心这些技术的伦理问题遭到的忽视。

图片来源:Kitra Cahana for Undark

当时的会议小组(后来也被称为“晨边小组”)确定了四项主要的伦理优先事项,后来尤斯特将其扩展为五项定义明确的神经权利:精神隐私权(mental privacy),这将确保大脑数据的私密性,并对其使用、销售和商业转让进行严格的监管;个人身份权(personal identity),为可能扰乱个人自我感知的技术设定界限;公平获得精神增强(mental augmentation)的权利,确保人们使用精神增强神经技术到机会是平等的;在开发神经技术算法时免受偏见的权利;以及自由意志权(free will),保护个人的主体能动性不受外部神经技术的操纵。晨边小组在《自然》杂志上发表的一篇文章*中介绍了他们的讨论成果,后来常常被引用。

*译者注:Yuste, R., Goering, S., Arcas, B. et al. Four ethical priorities for neurotechnologies and AI. Nature 551, 159–163 (2017). https://doi.org/10.1038/551159a

然而,就在尤斯特等人专注于这些新兴技术的伦理影响时,神经技术本身却在继续飞速发展。2014年,一名高位截瘫的男子使用意念控制的机器外骨骼踢出了世界杯的第一脚。2016年,一名男子用机械臂和奥巴马碰了拳——机械臂让他能够“感觉”到这个手势。次年,科学家证明,对海马体(hippocampus)的电刺激可以改善记忆,为认知增强技术铺平了道路。长期以来,军方一直对脑机接口技术很感兴趣。他们因此建立了一套系统,让操作员可以同时驾驶三架无人机,其中部分操作是通过意念完成的。与此同时,科学、科幻、炒作、创新和投机的混乱漩涡席卷了私营企业。到2020年为止,数百家神经技术公司共获得了超过330亿美元的投资——这大约是美国国立卫生研究院(NIH)为脑计划设想的12年周期总投资量的七倍。

尤斯特等人在为这些新兴技术制定伦理框架方面取得了进展。但是在创新的喧闹声中,问题变成了:会有人关注这些伦理问题吗?

当胡斯和唐的语义解码器在德克萨斯大学的实验中开始产出结果时,胡斯产生了两种相互矛盾的反应。一方面,他欣喜地看到解码器开发成功,并且有望成为一种辅助交流的工具。但这也激起了他对滥用这种技术的深深忧虑。他的脑海中浮现出一些反乌托邦式的场景:思想警察、强制审讯、不情愿的受害者被绑在机器上。他说,“这是让我们最先感到害怕的东西。”

与之前的尤斯特一样,胡斯和唐开始了一段对他们的研究伦理的深刻反省。他们广泛阅读了相关资料,包括晨边小组2017年在《自然》杂志上发表的文章,以及牛津大学哲学家斯蒂芬·雷尼(Stephen Rainey)领导的团队于2020年发表的文章*。尽管他们可能无法控制此类技术在未来的使用,但他们清楚地认识到,某些做法应该被完全禁止。例如,在被试尚未开始实验任务的静息态进行解码,或者在被试不知情的情况下进行解码。他们也认为,大脑解码不应在法律系统或者其他任何类似情境中使用,因为解码过程中的失误可能会在现实世界中产生后果;事实上,大脑解码只应在解码信息可由用户验证的情况下使用。(例如,闭锁综合征患者应通过回答“是”或者“否”的问题,以证实解码信息的正确性)。此外,胡斯和唐还得出结论,应禁止雇主在未经同意的情况下使用其员工的大脑数据,而且各公司在使用通过消费者设备采集的大脑数据时,必须保持公开透明。

*译者注:Rainey, S., Martin, S., Christen, A. et al. Brain Recording, Mind-Reading, and Neurotechnology: Ethical Issues from Consumer Devices to Brain-Based Speech Decoding. Sci Eng Ethics26, 2295–2311 (2020). https://doi.org/10.1007/s11948-020-00218-0

胡斯和唐努力试图解决的伦理问题的核心是,他们的解码器与同期开发的其他语言解码器不同,是非侵入性的——用户不需要接受手术。正因为如此,他们的技术不受医疗领域的严格监管。尤斯特则表示,他认为非侵入式脑机接口带来的伦理挑战远大于侵入式系统。“非侵入式和商用的技术才是容易引起伦理争论的焦点所在。”虽然胡斯和唐的解码器在广泛应用层面还面临其他的问题(比如功能核磁共振成像的机器庞大、昂贵且无法移动),但研究人员认为,或许也有办法克服这一问题。

fMRI设备测量的信息——血液含氧量(显示血液在大脑中流动的位置),也可以用另一种技术测量,即功能性近红外光谱技术(functional Near-Infrared Spectroscopy,fNIRS)。虽然一般fNIRS的空间分辨率比fMRI低,但有几款昂贵的研究级可穿戴fNIRS头戴设备的分辨率够高,几乎足以配合胡斯和唐的解码器。事实上,他们通过简单地模糊之前的fMRI数据来模拟研究级fNIRS的分辨率,从而测试了他们的解码器与这类设备的匹配度。胡斯描述,解码后的结果“没有差到哪里去”。

虽然这种研究级设备目前对普通消费者来说成本过高,但更初级的fNIRS头戴式设备已经进入市场。尽管这些设备的分辨率远远无法让胡斯和唐的解码器有效工作,但该技术仍在不断改进。胡斯相信有朝一日,价格低廉的可穿戴fNIRS设备会有足够高的分辨率,以便与解码器配合使用。事实上,目前他正在与华盛顿大学的其他科学家们合作研究开发这样的设备。

即使是比较原始的脑机接口设备,在向公众发布时,也会引发尖锐的伦理问题。脑电图(electroencephalography,EEG)是一种通过检测头皮电信号来测量大脑活动的普遍方法。依靠这种技术的设备现在已经可以被广泛使用,而这在某些情况下引起了人们的警惕。2019年,在中国金华,一所学校因为尝试使用脑电头带监测学生的注意力水平而招致批评*。(学校鼓励学生比赛谁的注意力最集中,并将报告发送给家长。)类似的情况也在2018年发生过:《南华早报》报道称,数十家工厂和企业开始使用“大脑监控设备”来监测工人的情绪,希望借此提高生产率并改善安全状况*。时任宁波大学脑科学家的金佳告诉记者,这些设备“一开始会引起一些不适和抵触情绪,但是过了一段时间,工人们就习惯了。”

*译者注1:金华市金东区教育局相关工作人员10月31日下午回应称,学生是无偿、自愿使用“头环”,未产生任何不良反应,家长也对此表示认可。目前,为平息“质疑”,当地已决定暂时停用相关设备。(来自澎湃新闻2019-10-31的报道)

*译者注2:该项目出自宁波大学的政府资助计划“Neuro Cap”,至2018年,已有十多家工厂与企业采用。

但即使是对于低分辨率的设备,其主要问题也在于,科学家们才刚刚开始了解大脑数据中的信息究竟是如何编码的。未来,功能强大的新型解码算法可能会发现,即使是原始的低分辨率脑电图数据,也包含了大量人们被采集大脑数据时的精神状态信息。因此,没有人能确切地知道,当他们允许公司从他们的大脑中收集信息时,他们会泄露什么。

因此,胡斯和唐得出的结论是,大脑数据应受到严密保护,尤其是在消费品领域。唐去年四月在Medium上发表的一篇文章中写道:“解码技术在不断进步,与现在相比,一年后我们可以从大脑扫描中解码出的信息可能已经大不相同。至关重要的是,各公司必须对他们打算如何处理大脑数据保持公开透明,并确保大脑数据得到精心保护。”(尤斯特提到,神经权利基金会(Neurorights Foundation)最近调查了30家神经技术公司的用户协议,发现所有公司都声明了对用户大脑数据的所有权,且大多数公司都声称他们有权将这些数据出售给第三方)。尽管有这些担忧,胡斯和唐仍认为,只要确保有适当的保护措施,这些技术的潜在益处大于风险。

但是,当胡斯和唐正在努力解决他们的工作所带来的伦理后果时,远在美国另一端的尤斯特已经明确了一件事:这些对话必须走出理论、哲学、学术和假设的范畴——它们必须进入法律的领域。

在2019年一个炎热的夏夜里,尤斯特与好友,智利著名医生,也是时任参议员的吉多·吉拉尔迪(Guido Girardi)坐在智利北部一家土坯酒店的院子里,一边观察着阿塔卡马沙漠广袤而星光闪闪的夜空,一边讨论着他们的常驻话题,明日世界。吉拉尔迪每年都会组织拉丁美洲一项重要的科学技术活动——“未来议会”(Congreso Futuro)*。长期以来,他都对科技的飞速发展及其对社会范式转变的影响(他称之为“以光速生活在这个世界上”)有着浓厚的兴趣。尤斯特经常被邀请在未来议会上演讲,而且两人都坚信,科学家们正在创造足以颠覆作为人类的根本概念的强大技术。

*译者注:“自2011年成立以来,我们一直致力于打造一个免费公开传播知识、科学、技术和艺术的平台。未来议会由智利参议院、未来议会基金会、智利科学院和全国所有大学组织,就当今社会在不久的将来会面临的社会、文化和政治问题进行对话和反思。”(来自未来会议官网:https://2024.congresofuturo.cl/)

午夜时分,当尤斯特喝完他的皮斯可酸酒(pisco sour)时,吉拉尔迪提出了一个有趣的建议:他们是不是可以合作让智利宪法通过一项修正案,将保护精神隐私作为每个智利人不可侵犯的权利?这是一个雄心勃勃的想法,但吉拉尔迪拥有在参议院成功推动激进立法的经验。多年前,他曾带头制定了智利著名的《食品标签和广告法》,要求公司在垃圾食品上贴上健康警示标签(该法激励了数十个国家推行类似法律)。对于脑机接口领域而言,这是他又一次成为法律开拓者的机会。吉拉尔迪回忆道:“我对拉斐尔说,‘不如就由我们来制定第一部神经数据保护法,你觉得如何?’”,尤斯特欣然同意。

在接下来的几年里,尤斯特多次前往智利,为吉拉尔迪的政治努力担任技术顾问。他的大部分时间都花在了提高人们对这一问题的认识上。他在大学发表演讲、参加辩论会、举行新闻发布会、会见重要人士;尤斯特说,他曾与智利时任总统塞巴斯蒂安·皮涅拉(Sebastián Piñera)进行了一次长达三小时的会谈。不过,他的主要职责是为起草立法的律师提供指导。“他们对神经科学和医学一无所知,而我对法律一无所知。”尤斯特回忆道,“这是一次激动人心的合作。”

与此同时,吉拉尔迪领导了政治层面的推进,促进修改智利宪法,以保护人们的精神隐私。这一努力出乎意料地得到了各政治派别的支持;这在一个以政治两极分化而闻名的国家是一项了不起的壮举。在2021年,智利国会一致通过了宪法修正案,总统皮涅拉迅速地签署通过了这项修正案。(智利国会目前正在审议第二项立法,即建立神经技术监管框架)。吉拉尔迪回忆道:“左右派政党之间对此没有任何分歧。这也许是智利唯一一部以全票通过的法律。”这让智利成为了当时世界上第一个将“神经权利”写入法典的国家。

对于新生的神经权利运动(neurorights movement)而言,智利在立法方面取得的巨大胜利是令人鼓舞的第一步。但尤斯特和吉拉尔迪也意识到了法律保护在国家层面上的局限性。吉拉尔迪解释说,未来的技术很容易就能跨越各种界限(甚至可能完全存在于物理空间之外),而且技术发展速度太快,民主制度无法跟上。他说,“民主是缓慢的。通过一项法律需要数年时间,但是世界变化的速度却是指数级的。”尤斯特和吉拉尔迪意识到,国家法规可以提供一些有用的法律保障,但仅靠这些法规是远远不够的。

早在智利宪法修正案通过之前,尤斯特就已经开始定期和国际人权律师贾里德·根瑟(Jared Genser)进行会面,根瑟曾为德斯蒙德·图图(Desmond Tutu)和昂山素季(Aung San Suu Kyi)等知名人士进行辩护。(《纽约时报》曾因根瑟为政治犯所做的工作而将其戏称为“政治犯释放器”)。尤斯特在就如何制定一个保护神经权利的国际法律框架寻求指导,而根瑟虽然对神经技术只是略知一二,却立刻被这个话题吸引住了。“可以说,在头一个小时的讨论中,他就让我大开眼界。” 根瑟这样说道。此后不久,尤斯特、根瑟和一位名叫杰米·戴维斯(Jamie Daves)的私营企业家发起成立了神经权利基金会(Neurorights Foundation)。这是一家非营利组织,根据其网站介绍,基金会的首要目标是“保护所有人的人权,使其免受神经技术潜在误用或滥用的危害”。

为了实现这一目标,组织努力让社会各阶层参与进来,上至联合国和美洲国家组织(Organization of American States)等地区管理机构,下至各国政府、科技产业、科学家们和广大民众。根瑟说:“接触这么多领域,你可以说我们疯了,或者太自大了。但尽管如此,在全球范围内讨论这些问题,绝对就像“荒野西部”(Wild West)*一样,因为事情的现状、走向和必要的措施都鲜有人知。”

*译者注:荒野西部(Wild West)指19世纪的美国西部,通常被认为是缺少法律和不守规矩的地带,可引申为无序行为盛行的地方或情况,尤指缺乏监管或法律体系不足。

由于社会各阶层对神经科技普遍缺乏了解,尤斯特在很大程度上扮演了全球教育者的角色。例如,他曾多次与联合国秘书长安东尼奥·古特雷斯(António Guterres)会面,讨论新兴神经科技的潜在危险。这些努力已初见成效。古特雷斯在2021年的报告《我们的共同议程》(Our Common Agenda)中提出了未来国际合作的目标,敦促“更新或澄清我们对人权框架和标准的应用,以解决前沿领域的问题,比如‘神经技术’(neuro-technology)”。根瑟将报告中的这一措辞归功于尤斯特在宣传上所做的努力。

但是,更新国际人权法并非易事。即使在神经权利基金会内部,对于最有效的方法也存在意见分歧。尤斯特认为,理想的解决方案是建立一个新的国际机构来专门针对神经权利,类似于国际原子能机构(International Atomic Energy Agency)。“我的理想是制定一项关于神经技术的国际公约,就像原子能和一些其他事物的公约一样,有它们各自的条例。”他说,“也许再创立一个机构,从根本上监督全世界在神经技术方面的努力。”

然而,根瑟认为没有必要制定新的条约。他认为通过扩展对现有国际人权法的解释,就可以将神经权利纳入其中,这是最为快捷有效的途径。例如,《公民权利和政治权利国际公约》(The International Covenant of Civil and Political Rights)已经确保了一般的隐私权,那么通过更新对该法律的解释,便足以澄清该条款也适用于精神隐私。

根瑟解释说,扩展对现有法律解释这种方法的优势在于,这些条约的签署国将有义务立即修改其国内法,使其与新的解释相一致;这也是同时在国际和国家层面促进神经权利行动的一种方式。根瑟说:“就《公民权利和政治权利国际公约》而言,这将对所有国家,也就是该条约的170多个缔约国,产生明确的影响——它们现在需要在国内提供精神隐私权,以履行条约规定的义务。”

不过,尽管根瑟认为这一途径是将神经权利被纳入国际法的最快方法,这一过程仍将耗时数年:首先,各条约机构要更新其解释,然后各国政府要努力使其国内法与之相符。法律保障总是滞后于技术的进步,但随着神经科技发展步伐的加快,这可能会成为一个尤其棘手的问题。

包括吉拉尔迪在内的一些人认为,滞后性是个大问题。他质疑法律制度是否有能力抵御即将到来的变化。毕竟,当人类以光速生活在这个世界上时,法律又如何跟得上呢?

然而,当尤斯特和其他人还在继续与复杂的国际法和国内法作斗争时,胡斯和唐却发现,至少对他们的解码器来说,最大的隐私保护屏障并非来自外部机构,而恰恰来自人类的大脑本身。在他们的解码器取得初步成功后,二人广泛阅读了有关这种技术伦理影响的书籍,并开始思考如何评估解码器的能力边界。胡斯说道:“我们想测试几条精神隐私的原则。”简单来说,他们想知道解码器能否被人脑抵制。

2021年底,几位科学家们开始了新的实验。首先,他们想知道在一个人身上训练出来的解码算法是否能适用于另一个人身上。他们测试的结果是否定的,因为解码器的成效取决于长时间的个体化训练。接下来,他们又测试了被试是否可以通过拒绝与解码器合作来防止自己的思维被解码。这次,在fMRI扫描仪中,被试不再需要专注于耳机中播放的故事,而是完成一些其他脑力任务,比如说出随机动物的名字,或者在脑中讲述一个不同的故事。“这两项任务都使解码器完全失效。”胡斯说道,“我们无法解码他们正在听的故事,也无法解码他们在想什么。”

研究结果表明,至少从目前来看,强行读心这种噩梦般的场景离我们还比较遥远。随着这些伦理问题的严重程度减弱,科学家们已将注意力转移到这项发明的积极方面,例如它有潜力成为恢复交流能力的工具。他们已经开始与华盛顿大学的一个团队合作,尝试研发一个与他们的解码器兼容的可穿戴 fNIRS 系统。也许在不久的将来,他们的技术就可以开始被实际应用到医疗中。尽管如此,胡斯完全认可反乌托邦式预测的价值,并希望这种预测能够继续下去。“我很欣赏人们不断提出新的糟糕情景。”他说,“这不正是我们需要继续做的事情吗?思考‘这些事情会因为什么而出错?怎样做才能确保它们不出错,同时也思考它们可能出错的方式,’这一点很重要。”

然而对尤斯特来说,像胡斯和唐的解码器这样的技术,可能只是人类历史上令人匪夷所思的新篇章的开端。在这个新篇章中,人类大脑和计算机之间的界限将被彻底重新划定,甚至被完全抹除。他说,我们可以想象这样的一个未来:人类和计算机将永久融合,从而出现技术性增强的赛博人(半机械人)。“当这场海啸向我们席卷而来的时候,人类最终不是有可能,而是一定会把自己变成一个混合物种。”尤斯特现在正专注于为这种未来做准备。

在过去的几年里,尤斯特曾前往多个国家,与众多政治家、最高法院法官、联合国委员会成员和国家元首会面。他的宣传活动已初见成效。2023年8月,墨西哥开始考虑进行宪法改革,以确立精神隐私权。巴西目前也在考虑类似提案,西班牙、阿根廷和乌拉圭以及欧盟也表达了类似的意向。同年9月,神经权利被正式纳入墨西哥的数字权利宪章,而在智利,最高法院做出了一项具有里程碑意义的裁决,认定生产可穿戴脑电头戴设备的Emotiv公司违反了智利新颁布的精神隐私权法。这项诉讼是由尤斯特的朋友与合作者吉多·吉拉尔迪(Guido Girardi)提出的。

尤斯特之所以如此积极地宣传精神隐私权利法,或许是因为他确信采取行动的时限正在迅速逼近,明日的世界不再遥不可及。“他们曾经问我,‘你认为我们什么时候应该开始担心精神隐私问题?’”他回忆道,“我会说五年后。‘那什么时候担心我们的自由意志呢?’我会说十年后。但你猜怎么着?我当时太乐观了。”

胡斯也同意现在是采取行动的时候了。他解释说,这些技术可能仍处于起步阶段,但积极主动地建立精神保护远比被动地等待可怕的事情发生要好得多。

胡斯说:“这是我们应该认真对待的事情。即使现在的神经技术还没有完全发展成熟,但是五年后又会怎样呢?想想五年前我们能做到什么,现在又能做到什么。五年后会怎样?十年后又会怎样?我们可以合理地推测以后会出现,我不想说足够可怕,但一定足够反乌托邦式的情况,所以我认为现在正是我们要好好思考这个问题的时候。”

作者:Fletcher Reverley

翻译:学理的小文

审校:Lemona

原文:https://undark.org/2024/01/03/brain-computer-neurorights/

打开网易新闻 查看精彩图片