过去几年人工智能算法的能力指数级增长,算法的精准程度来源于数据,其精确和细微程度令人咋舌,这种快速发展能够突破计算机本身决策的界限,这让人们越来越意识到在部署算法的过程中要将道德因素纳入考虑范围。
和所有的计算机代码一样,人工智能算法(一定程度上现在是深度学习算法)在规定的约束范围(包括允许在参数内的偏移)内执行特定的任务,保证其准确性。
但如果有一种算法,能够找到金融机构网站的漏洞,窃取用户数据甚至于盗取金钱,这种算法在技术上正确,但一定不道德。
再例如算法自动写出一篇文辞优美的文章(这个乌龙已经发生过,美国某期刊还收录了AI创作的论文),侵害的是创作人还是出版人的利益,是否最后都害怕出版新读物?再比如在自动驾驶领域,这条赛道如今已经争得头破血流,如果将乘客换成一个炸弹包裹呢?甚至不需要去修改自动驾驶代码,就能将一个定时炸弹送到指定的地方,是不是因为有这个可能就停止整个自动驾驶产业?
AI最大的道德挑战来源于军事。自主大规模杀伤武器,可能随时降落在闹市区。谁需要对这个事件负责?
这类道德问题没有简单的答案,在这场道德和不道德的辩论里,最常看到的辩方意见是只要算法正确就是道德的,只要武器杀死了正确的人,就是道德的。可这其中所体现的道德,也是主观产物,阿西莫夫三定律只是科幻小而已。
有的AI伦理学家则表示,人工智能系统应该保护人类权威,即人工智能算法的可解释性,其因果推导可由人类完全审核。
有人说二战时核武器的发明是人类最后悔的事情,现在可能是人工智能。技术本身无罪,人工智能的飞速发展的确会带来更多的道德问题,可能人类也从未遇到这样的情境,需要我们共同探索,要平衡所有技术的好与坏,再决定是否应该创建,而非简单的非黑即白。
责任编辑: