人类与机器
关于人类与算法之间全新关系的四个命题
人工智能——它是什么?它的出现对人类而言意味着什么?关于人类与算法之间全新关系的四个命题。
人为因素 - 关于人类与算法之间全新关系的四个命题。
1.算法也是人为的产物:客观性不过是一种幻象
日常生活中使用软件进行数据分析的领域越来越广,这些算法也因此变得越发强大。不过,算法也因其开发者的编程而具有主观性与选择性,会有意无意带入编程者的偏见与经历。即便一些借贷者偿付能力完全没问题,但由于被软件归于问题街区,因此也将难以或无法获得贷款。看似客观的软件在犯罪预判(“预判式执法”)时也会强化现有的歧视。若警务人员在软件的引导下着力增加巡查落后地区的次数,该地区的犯罪记录可能也会随之上升,进而在数字化预判中被更严苛地审查。
2. 世界是一个呼之欲出的故事,并非需要清点的物品:数据分析与人类专业知识相结合才能创造真正价值
早在 2008 年,Chris Anderson 便宣告“理论的终结”。“数据爆炸使得科学研究方法都过时了。”这位《连线》杂志的编辑写道。他相信,得益于大数据,算法将能发现科学研究方法本身永远无法发现的模式。“足够的数据便足以说明问题。” Anderson 说。不过,在这篇文章发表后近 10 年,当时的兴奋之情已被更为审慎的理性评判所取代。这一转变的主要原因在于数据搜集者们的尝试不断失败,例如,谷歌于 2012 / 2013 年推出 Flu Trends 项目,它预测三月将发生流感疫情,然而事实并非如此。在复杂的情境中,相互关联并不能取代因果关系,推断依旧需要证据。人类专长在这里至关重要。
3. 计算机提议,人类拍板:我们必须保持对技术的掌控
人工智能系统已踏上独立发展之路。基于数学逻辑,它们从自身错误中学习,并自行做决定。人类很难彻底了解人工智能神经网络如何对每种情况得出结论。苏格兰爱丁堡大学信息学教授 Alan Bundy 认为这个问题亟待改善。与此同时,政治家与消费者权益维护者正号召为日渐发达的人工智能算法设置公认标准,并要求对其运行工作进行独立监察——尤其是在一些社会敏感度较高的领域。他们希望人工智能机器在执行能力范围之外的任务时先发出提示,以便人类协助——或彻底拿回控制权。
4. 超级计算机不会自动超越人类:人类经验与价值观无法被复制
人工智能与机器学习算法使机器的能力突飞猛进。研究人员认为,未来几十年内可能将出现在众多甚至所有领域都超越人类的超级智能机器。为此,我们应当理性看待新技术的适用范围与局限性。在特定领域,相较于依赖本能的人类,人工智能可以基于可靠的数据做出更为客观的决策。不过,对于涉及人类共存等核心问题的复杂决策,比如解决贫困等问题,并不存在非此即彼的答案。人类需要结合各自的经验、价值观与目标做出决定。智能机器无法理解这种关乎人道和民主的社会精髓。
各有利弊:人工智能的潜力既引发质疑,也带来希望。
Klaus Mainzer
德国慕尼黑工业大学哲学与科学理论系教授、人工智能专家
赞成
单凭强大的运算能力与精密的数学逻辑,人工智能已能完成一些人类需要通过学习与本能来完成的工作任务。毫无疑问,这项技术是重大创新,我们应加以利用。扑克牌游戏是直觉的代名词,甚至在这类游戏中,没有感情或意识的人工智能也能击败专业选手。此外,扑克牌游戏只是对“人类在信息不充分条件下做出决策”这一情境的简单模拟。这些算法迟早会用到商业与政治决策中。例如,它们能协助而非代替我们处理复杂的合同。得益于大数据,我们能精准了解特定群体的意见。单从技术层面看,人工智能有望帮助我们组建一个“完全符合民意”的政府。有些作家甚至认为高度智能的算法将威胁整个民主制度。有人则觉得这只是科幻小说中的情节。但在我看来,我们必须重视这一趋势,牢牢掌控人工智能系统。
Alan Bundy
苏格兰爱丁堡大学信息学院自动化推理学教授
反对
现在就讨论智能机器统治世界还为时尚早。如果谷歌计算机在一款极为复杂的游戏中打败人类,便有人会惊叹,“这机器比我们还聪明。”但这种类型的程序擅长的也不过只是玩游戏罢了。即便是无人驾驶技术中的人工智能系统也只是会开车。人工智能不会判断,“嗯……这么干好像不是很安全。”但人类却能够从更为宏观的视角进行思考。真正的危险不在于技术变得过于智能,而在于高估了愚笨的机器,让他们从事力所不及的工作。例如,医生在诊断中太过依赖人工智能。但这只会造成一些个人问题,绝非是对全人类的威胁。