• 2024年4月18日 00:45

机器能够读取人脑数据并加以控制,可怕的是不易阻止这种发展趋势

9 月 1, 2021

2019年,Rafael Yuste成功地将图像直接植入老鼠的大脑,对它们的行为加以控制。现在,这位神经学家警告称,几乎不可能阻止人类成为下一个。

如果使用得当,神经技术——机器与人类神经元直接互动——可以用来理解和治疗阿尔茨海默病和帕金森病等顽固疾病,并帮助开发假肢和语言疗法。

但如果不加以监管,神经技术就可能导致最恐怖的企业和国家过度行为,包括歧视性监管和侵犯隐私,让我们的思想像我们的通信一样容易受到监控。

现在,一群神经科学家、哲学家、律师、人权活动家和政策制定者正在为保护隐私的最后一块领域——大脑而努力。

他们并没有寻求完全禁止。相反,像Rafael Yuste这样的活动人士呼吁制定一套原则,保障公民对其思想的权利,并保护他们不受任何入侵者的侵犯,同时能够利用任何潜在的健康好处。Rafael Yuste是哥伦比亚大学“神经权利倡议”运动(Neurorights initiative)的主要人物。

但他们认为,有足够的理由对神经技术的某些应用感到震惊,尤其是在这种技术已经引起军方、政府和科技公司的注意之际。

中国和美国在人工智能和神经科学方面都处于领先地位。美国国防部正在开发一种可以用来调整记忆的技术。

不仅仅是科学家;包括Facebook和马斯克的Neuralink在内的大公司也在取得进展。

Neurotech可穿戴设备现在正在进入市场。美国Kernel公司开发了一种面向消费者市场的耳机,可以实时记录大脑活动。Facebook 资助了一个项目,以创建一个脑机接口,让用户无需说话就能交流(他们今年夏天退出了这个项目)。Neuralink正在研究大脑植入物,并于2021年4月发布了一段视频:一只猴子用该公司植入的芯片玩游戏。

“问题是,这些工具可以用来做什么,”他说。这里有一些可怕的应用实例:研究人员使用大脑扫描来预测罪犯再次犯罪的可能性,中国雇主通过监测员工的脑电波来解读他们的情绪。科学家们还成功地利用消费者设备下意识地探测个人信息。

“我们已经提出了一种“混种人类”(hybrid human)的可能性,这将改变我们作为一个物种的身份,这是一个非常严重的事情,事关人类的生存,”他继续说道。Yuste认为,无论这种改变是好还是坏,现在都是必须做出决定的时候了。

盗梦空间?

今天的神经技术无法解读思想或情感。但有了人工智能,可能就是另外一个场景了。强大的机器学习系统可以将大脑活动与外部环境联系起来。

苏黎世联邦理工学院的生物伦理学家Marcello Ienca说:“为了挑战隐私,只要有一个足够强大的人工智能来识别模式,并在某些数据模式和某些心理状态之间建立相关关联就足够了。”

研究人员已经成功使用机器学习系统从一个人的大脑活动中来推断信用卡数字。

脑部扫描也被用于刑事司法系统,用于诊断和预测哪些罪犯可能再次犯罪。但是,它在现阶段——如同之前的测谎仪测试一样——能够提供的信息有限,有时还有缺陷。

这可能会给有色人种带来可怕的后果,他们本来就有可能不成比例地遭受算法歧视。

“例如,根据科学,测谎或记忆检测似乎足够准确时,为什么公诉人要对这种技术说不呢?” Tilburg University专门研究强制性大脑阅读的法律影响的 Sjors Ligthart说。

专家们认为,尤其是大脑植入物,还不清楚思维是被诱导的还是由大脑本身产生的,这就对问责提出了质疑。“你无法辨别哪些任务是由你自己完成的,哪些是由人工智能完成的,”苏黎世联邦理工学院的生物伦理学家Marcello Ienca说。

我的思想在何处?

人类从来都不需要宣称他们是自己所携带的思想的所有者,但神经技术正在促使政策制定者这么做。

智利正在制定世界上第一部法律,以保障其公民所谓的“神经权利”。

支持这一提案的参议员Guido Girardi说,这项法案将为神经技术创建一个与药物使用类似的注册系统,使用这些技术需要得到病人和医生的同意。

这位参议员说,我们的目标是确保“人工智能等技术可以用于做好事,但绝不能用于控制人类”。

今年7月,西班牙通过了一项不具约束力的《数字权利宪章》(Charter for Digital Rights),旨在指导未来的立法项目。

“西班牙的做法是确保与这些大脑过程相关的数据的机密性和安全性,并确保个人对其数据的完全控制,”参与起草该宪章的数据保护律师Paloma Llaneza González说。

她说:“我们想要保证人的尊严、平等和非歧视,因为这种技术可以根据一个人的想法来歧视他或她。”

总部位于巴黎的经济合作与发展组织主要由富裕国家组成,该组织批准了关于神经技术的非约束性指导方针,并列出了旨在保护隐私和自由思考的新权利,即认知自由。

问题是,目前还不清楚,在起草时没有考虑到神经技术的现有立法是否足够。

“我们所需要的是重新审视现有的权利,并将其具体化为神经技术领域,”Sjors Ligthart说。其中一个目标可能是《欧洲人权公约》,例如,该公约确保了尊重私人生活的权利,这一权利可以更新为也包括精神隐私权。

GDPR是欧洲严格的数据保护制度,为健康状况和宗教信仰等敏感数据提供保护。但里尔EDHEC商学院的Ienca和Gianclaudio Malgieri的一项研究发现,法律可能不包括情感和思想。

Yuste认为,需要在国际层面采取行动,联合国等组织需要在这项技术得到进一步开发之前采取行动。

Yuste说:“我们想做一些更聪明的事情,而不是等到出现问题甚至为时已晚时再试图解决,这就是互联网和隐私以及人工智能的现状。”

来源:POLITICO;作者:MELISSA HEIKKILÄ;编译:POLARZONE