随着以ChatGPT为代表的人工智能时代的到来,除了赞叹科技进步以外,我们讨论的核心越来越聚焦于人类究竟会不会被人工智能所取代?技术的“突飞猛进”又会把我们的世界带向何处?
德国波茨坦大学哈丁风险知识普及中心主任格尔德·吉仁泽在他的新书《失控与自控》中给出了一个很有意思的概念叫作“稳定世界原则”。
书中提到,当“环境”稳定时,人工智能是可以超越人类的。比如国际象棋和围棋,都是在有着稳定且明确规则的情况下,人工智能战胜了人类。因此,如果未来和过去一样,那么人工智能所分析的海量数据将有大用处。然而,未来是充满了不确定的,在不确定的状态下,复杂算法的成功概率也许并不高。
“稳定世界原则”好像帮我们理解人工智能提供了一个新的视角,在了解了AI的这个特点后,我们也许能知道在人类与AI共存的当下,它能做什么和不能做什么,以及在失控的智能世界里,我们该如何自控。格尔德·吉仁泽指出,人工智能缺乏一定的常识。常识,通常是源于遗传倾向以及个人和社会学习,它需要一定的经验。而对于从事人工智能开发的人来说,常识是一个巨大的挑战。
智能世界,我们要如何保持聪明?格尔德·吉仁泽在《失控与自控》中指出,保持聪慧并不意味着完全信任技术,也不意味着完全不信任技术,对此充满焦虑。保持聪慧意味着了解数字技术的潜力和风险,以及在充满算法的世界中保持主导地位。
自控意识是首要的。但自控并不意味着远离技术,自控的意思是,当一个人非常想转头做另外一件事情时,能够抑制住自己,因为他知道自己会后悔,或者知道该行为会威胁到自己和他人的健康。其次,意识到算法推荐的“可操作性”也是非常重要的,这就像我们常说的“信息茧房”。
人们普遍认为,在社交媒体上的畅通无阻,就等于能够规避互联网的诡计和陷阱。然而,事实并非如此。
斯坦福大学的研究人员曾经做过一项实验,他让来自美国12个州的900名学生浏览社交媒体中的信息,并从“证据是什么”“谁是信息背后的人”等角度来评估信息的可信度。在一位由银行高管撰写,银行赞助发行的《千禧一代有良好的金钱习惯吗》文章中提出,许多千禧一代需要财务规划方面的帮助。被试者需要考虑这篇文章的观点是否可信。令人惊讶的是,大多数学生并没有注意到信息发布者的身份其实是促成这种观点的主要原因。
在这项实验中,无论是中学生还是大学生,很少有学生关注是谁在背后支持在线资源,他们没有考虑支撑信息的依据,也没有参考独立的来源来核实这些信息。相反,他们听信了表面上的话,而且被生动的照片和图形设计吸引。即使别人鼓励他们通过互联网进行搜索,大多数人也没有去参考其他网站。因此,数字时代原住民的身份并不能证明我们真的了解数字时代。
数字世界使虚假信息比以往任何时候都更容易泛滥、更具有发挥空间。但与此同时,数字世界也为我们了解人员和信息来源的可信度提供了多条路径。我们可以借此了解人工智能可以轻松做什么和不能做什么,可以思考以数据为货币的商业模式是如何销售用户的时间和注意力的。
了解数字技术的潜力和风险,以及认识到它所建构的“真实”是很重要的一件事情。人类历史上,我们与技术的互动屡见不鲜,但没有哪一种技术像人工智能一样前所未有地参与我们的生活,甚至决定我们的生活。
要想在智能世界依然保持聪明,正如格尔德·吉仁泽所说:“保持聪明就意味着我们要了解数字技术的潜力和风险,这样才能让我们在充满算法的世界中保持主导地位,不被人工智能打败。”因此,要想在智能世界保持聪慧,我们应该以冷静的敬意而不是毫无根据的敬畏或怀疑来看待数字技术,让数字世界成为我们想要生活的世界。(戚风整理)

首页



放大
上一版