人工智能智商越来越高就不配拥有人权吗?

  佛罗里达州立大学的法学教授肖恩·拜恩指出,尽管还没有经过检验,但人工智能可能已经拥有了这种地位,因为AI可以管理有限责任公司,所以可以拥有法律上的独立地位。如果像比尔·盖茨的“机器人税”这样的提案在法律层面上被认真对待,那么税收层面的因素也需要被考虑进来。

  然而,争议仍然存在。如果人工智能能以某种方式执行一些责任不明晰的行为,那么它的创造者可能就会借此摆脱责任。而且,这也可能会使AI工具的研发人员消极怠工——因为AI表现不符合预期时,他们就有理由不再进行进一步开发。

  目前也没有办法惩罚人工智能,因为像监禁或死刑这样的惩罚对人工智能来说毫无意义。

  爱尔兰国立大学的法学教授约翰·丹纳赫关于人工智能法律人格的看法是:“我不认为这是一件正确的事,至少现在不是。”“我的猜测是,在可预见的未来,这种做法主要是为了推卸人类的责任,来掩盖一些反社会活动。”

  然而,这个领域并不依赖于任何以主观意识为目标的基准。

  《人类简史》和《未来简史》的作者尤瓦尔·赫拉利说,“在今天,公司拥有合法的权利而且被视为法人,但大多数动物都没有。”“尽管企业显然没有意识,没有人格,没有体验幸福和痛苦的能力。而动物则是有意识的实体。不管人工智能是否发展出了意识,都可以有经济、政治和法律上的理由赋予它人格和权利,就像企业可以获得法律人格和权利一样。事实上,人工智能将来可能会主导某些公司、组织甚至国家。科幻小说中很少提及到这种情况,但我认为它比《西部世界》和《苹果核战记》中的故事更有可能发生。”

人工智能智商越来越高就不配拥有人权吗?

  不再是科幻小说

  目前,这些话题仍然是科幻小说的主题,但正如尤瓦尔·赫拉利指出的那样,这种状态可能不会长期保持下去。基于AI在现实世界的使用以及它们与人类的关系,像“人工智能导致有人死亡时亡谁来负责”,或者“一个人能否跟他的人工智能助手结婚”这样的问题就需要在将来的生活中被解决。

  约翰·丹纳赫说,“给任何实体赋予法律人格的决定,基本上都可以简单地分为两个子问题。这个实体是否应该被当作道德主体来对待,它应该对自己的行为负责吗?另一个问题是,这个实体是否应该被当作一个道德客体来对待,从而受到保护,免受某些干扰和以及对其完整性的侵害呢?我的观点是,AI不应该被当作道德主体,至少暂时不会。但我认为,在某些情况下,它们应该被视为道德客体。我认为,人们可以在很大程度上依赖人工智能伴侣,因此,在很多情况下,改编或破坏这些实体是错误的行为。这意味着我们可能要对AI负责,而不能破坏或者侵犯它们的完整性。”

  换句话说,当涉及到人工智能工具时,我们不应该允许企业逃避责任。随着人工智能系统从自动驾驶汽车、金融交易员、无人驾驶飞机和机器人等各种领域进入现实世界,至关重要的一点是,有人要为他们所做的事情负责。

  同样,将人工智能和人类的关系与先前的非智能技术视为同等性质也是错误的。

  这关乎一个学习曲线。而且即便我们在技术上还没有达到担心AI主权的阶段,这并不意味着这是一个错误的问题。所以当Siri没有听清楚你的问题并询问是否搜索网页时,不要再对它大喊大叫了,好吗?