无论是怎样的道德算法,本质上讨论的,都是面对社会困境把悲剧分配给谁。理论上不存在满足各种公平正义要求的正解,但实践中我们随时都在分配。
机器人三定律
第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;
第二定律:除非违背第一定律,否则机器人必须服从人类的命令;
第三定律:在不违背第一及第二定律下,机器人必须保护自己。
道德机器不是做着玩的,研究者用它来搜集在自动驾驶问题上社会的道德判断。
1、孩子重于老人,胖瘦男女对我完全没差别;
2、多个人重于一个人,不论是什么人;
3、人重于动物,遇到撞人还是撞狗,永远选择撞狗;
4、如果转向不转向都撞到同样多人,那就不转向;
5、如果转向的后果是我自己完蛋,那就绝不转向。
电车难题、人工智能的道德算法,本质上都是把悲剧分配给谁的问题。在理论上不存在满足各种公平正义要求的正解,但实践中则随时随地都在分配,一刻也没有因为不够公平而停止过,问题只在于它是如何分配的。
社会分配悲剧有四个策略:市场、政府、摇号、惯例,但没有哪个能长期维持分配的稳定性。
网友评论