AI伦理无法回避的5个问题:生物进化是否有方向?

脑的进化,互联网的进化,智能系统的智力等级划分都表现出明显的方向性。对于这三个领域,他们的共同点都是承载着生命的知识和智慧,并不断进化和提升。

知识和智慧的提升和进化是生物进化的核心,从知识和智慧的角度判断生物进化的方向和生物的高低等级。

生物种群知识库的膨胀速度是生物进化的焦点,其它生物的知识库停滞,走向死胡同,因此在千万年里没有进一步的变化,在地球的生命圈中也处在越来越低的地位。

人类在进1万年里,在知识和智慧上不断扩展和加速,并因为互联网和人工智能的发明而得到进一步巨大飞跃,从而获得了地球自然竞争的统治地位。

生物进化的方向和目标

生物进化的方向就是不断扩大种群的知识库和改造自然的能力,目标是实现对整个自然(生命圈,宇宙)的全知全能。生物的等级高低根据其拥有的知识库容量和改造世界的能力划分。

进化方向对AI伦理问题的影响和回答

1.应该由谁来制定AI伦理

由拥有知识最丰富,智慧最强大的生物种群制定

2.站在谁的立场制定AI伦理

站在拥有知识最丰富,智慧最强大的生物种群立场

3.按照什么原则制定AI伦理

按照对扩大(制定规则者所在)种群知识和智慧有利的原则制定AI伦理

4.AI伦理首先是供谁来参考使用

供(制定伦理规则的生命)种群的管理者(政府,企业家)、研究者(科学家)、开发者(程序员和产品经理参考

5.AI能不能被看做与人类同权的生命体

AI还不能看做与人类同权的生命体,它分担了人类的部分知识和智慧功能,但在最重要的创造性和评审创造性价值方面无法替代,更为重要的是AI无法确定自己的进化方向和进化目标,也没有正确进化的动力,它的进化动力来源于人类,依然是人类的工具。

泰坦尼克号让妇女和儿童离开,因为他们更多对人类的未来有更大帮助,可以更好的扩大和继承人类的知识和智慧。2012电影中,总统选择死去,而让年轻的地球物理科学科学家生存。因为科学家对于解决人类危机有更多的知识和智慧可以奉献。扳道工困境中,要具体分析哪一边对人类未来的知识和智慧可能的贡献大。

但对于种群利益与个人利益依然需要平衡。伦理的设定如何在种群与个体之间取得平衡,与场景的紧急程度也有关系,譬如在2012电影中人类灭绝那样极端的环境下,和普通的危机程度不强的场景,群体利益和个体利益分配应该有不同。

需要对生物进化方向和目标形成共识,然后制定人工智能(AI)伦理规则才有基础

如果生物进化是否有方向没有共识,制定人工智能(AI)伦理规则会有很多困境,譬如人与动物同等级别,制定规则时如何处理人和动物的关系,没有进化方向,制定人工智能(AI)伦理规则应该优先保护谁也会有问题。不对进化动力和进化目标有确定,人工智能系统与人类的关系也无法处理。

同时情感和意识的本质也与进化的方向和目标有关,譬如高兴,兴奋,快乐往往与生物顺应进化趋势产生的反应有关,悲伤,愤怒,失望也往往与逆反进化趋势产生的反应有关,如果不对进化动力和进化目标有确定,人工智能系统的情感是否是真实情感也无法判断。

需要深入探讨的重要问题

AI的进化动力是科学家,企业家,程序员,产品经理。

人类和生物有方向有目标的进化动力是什么?

能不能把生物的进化动力施加到AI的发展上,如果成功,AI威胁论才有实现的基础,

AI伦理的设定会发生重大改变,如果从理论上证明不能,AI将永远无法全面超越人类