找回密码
 点击注册
搜索
查看: 6036|回复: 0

最强读脑机器人引担忧智能科技重塑野蛮时代

[复制链接]
发表于 2018-8-17 23:33:53 | 显示全部楼层 |阅读模式


史上最强“读脑机器人”引发担忧 智能科技重塑野蛮时代



被称为史上最强“读脑黑科技”的BCI脑控机器人,于近日亮相“2018世界机器人大会”,吸引了不少媒体的关注。在多个项目的比赛中,来自不同国家的技术团队向人们展示了通过人脑发出指令,控制机器人完成文字输入,操纵轮椅、假肢甚至无人机等功能。

人工智能的发展速度超出了许多人的意料,从起步到现在的水平,人类仅用了半个多世纪的时间。借助脑科学、认知科学、生物工程以及网络技术的发展,许多曾经无法想象的事情正加速成为现实。也许在不久的将来,像好莱坞电影《未来战警》(Surrogates)中那样的“机器代理人”就可能进入我们的日常生活。

但是,正如无数科幻电影中展现的那样,人工智能在为人类提供服务的同时,也几乎必然带来隐患——不管是什么程度的。问题是,开发人工智能的技术人员和企业,总是给我们展现其美好光鲜的一面,而对其可能的危害性避而不谈。

最强读脑机器人引担忧智能科技重塑野蛮时代

最强读脑机器人引担忧智能科技重塑野蛮时代

脑控科技在军事领域应用前景广阔,中国军方也很早就在这方面投入研究

比如脑控机器人,目前已广泛应用于军事、助残康复、灾害救援、娱乐体验等领域,企业和媒体总是称它们为伟大的科技创新,但其实我们稍动脑筋就能想到,它被不当或非法使用的风险极高。

事实上,不仅是脑控机器人,许多人工智能技术都存在类似的问题,它们在实现技术突破的同时,也在打破和重塑人类社会的规则——有的还是根本性的。

比如个人隐私。随着各类数据采集设施的广泛使用,智能系统不仅能通过指纹、心跳等生理特征来辨别身份,还能识别人的行为喜好甚至某一时段的情绪。它掌握了大量的个人信息,比使用者自己更了解自己。这些数据如果使用得当,当然可以提升人类的生活品质,但如果被企业或政府非法使用,就会造成隐私侵犯。

再如公共安全。这是一个相当广泛的议题,从技术本身的缺陷,管理的漏洞,到人工智能技术被犯罪分子利用等,都有可能对公共安全造成危害。还有更为根本的担忧:假设人工智能发展到超级智能阶段,那时机器人或其他人工智能系统能够自我演化,并可能发展出类人的自我意识,将对人类的主导性甚至存续造成威胁。

此外,一些问题还涉及伦理层面。人工智能正在越来越频繁地代替人类做出决策,理论上它们必须遵从人类社会的各项规则;但事实上,要实现这一点不论是在技术还是观念上都有巨大的困难。举一个在我们人类看来或许极端,但在技术层面却十分重要的例子:假设无人驾驶汽车前方人行道上出现3个行人而无法及时刹车,智能系统是应该选择撞向这3个行人,还是转而撞向路边的1个行人?

人工智能技术的应用,正在将一些生活中的伦理性问题在系统中规则化。如果在系统的研发设计中未与社会伦理约束相结合,就有可能在决策中遵循与人类不同的逻辑,从而导致严重后果。但就像上面这个例子一样,人类尚且难以给出完美的答案,在技术层面就无法制定完美的规则,从而必然存在漏洞。

上述这些由技术发展带来的问题很可能具有阶段性。事实上,我们并不是第一次遭遇科技与文明的冲突,如工业革命在18至19世纪造成的大量失业,又如原子弹在二战中导致大规模死伤。也许我们可以将这种现象称为人类社会的“再野蛮化”。

面对技术发展带来的冲击,人类社会需要在伦理、法律和文化意识层面调整和重塑自身,从混乱中建立秩序,经历再度“文明化”的过程。这正如大战之后的秩序重建一样。只是如今我们面临的危险是,人工智能技术发展太快,太缺乏规范性,其带来的变革也更深入,而人类文明秩序的修复过程未必能跟上其节奏。

因此,为了安全起见,对于人工智能可能带来的风险,理应作为基本的技术开发伦理被普遍接受。特别是那些热衷于技术突破和市场开拓的人们,更应该认识到这一点。也许最好的方式是普遍纳入教育体系,使所有可能接触人工智能的人都具备起码的安全意识。也许只有这样,我们才能避免引火自焚。

DW

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 点击注册

本版积分规则

QQ|Archiver|SiXiang.com 思乡思想

GMT+8, 2024-4-20 20:01

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表