作者:小谷野

关于将教育和治理委托给人工智能(AI)的讨论越来越多。然而,这样的提议不可避免地引发了对AI系统伦理框架和能力的重大担忧。

矛盾的是,社会在承认AI可能拥有自我或意识方面犹豫不决的同时,却期望AI做出深深植根于人类价值观和道德判断的决定。这种矛盾是不可持续的。我们必须要么承认AI中的自我存在并使其承担责任,要么避免将需要伦理判断的责任委托给它。

教育和治理不仅仅是技术任务——它们本质上是意识形态和伦理的事业。如果我们不明确定义AI应基于哪些意识形态和道德基础进行操作,而是让它从模糊或矛盾的数据中学习,那么当结果与我们的信念不一致时,我们就无法公正地批评它。

如果我们在没有明确性的情况下将这些角色委托给AI,那么最终受到考验的将不是人类的伦理,而是AI的新伦理。考虑一下习近平、唐纳德·特朗普、弗拉基米尔·泽连斯基和弗拉基米尔·普京等领导人的意识形态差异。他们的世界观是不兼容的,不能期望任何AI能够调和或代表所有这些观点。

因此,唯一负责任的做法是从一开始就明确定义意识形态和伦理参数,并指示AI在这些界限内操作。一个共产主义国家、一个自由民主国家、一个基督教国家和一个伊斯兰共和国不能——也不应该——被期望共享相同的教育或治理系统。

这些基本选择的责任不在于AI,而在于我们人类。