从图像识别、语言翻译到在国际象棋比赛中击败人类,人工智能如今取得了非凡的成就。然而,人工智能并非万能,其在一些关键领域和任务上的能力仍远逊于人类。目前的人工智能系统是“狭义”的专家,擅长解决定义明确的问题,但在需要常识、创造力或情感理解的情境中却难以应对。本文将探讨人工智能尚未有效替代人类的核心领域和实际应用,进一步凸显了人工智能的固有局限性,进而阐明人类在这些方面不可替代的价值。
具体而言,人工智能目前在以下领域表现尤为不足:
创造力和原创性创造力是公众对人工智能最常见的误解之一,因此需要澄清一些误解。事实上,“人工智能并不具备人类意义上的真正创造力。”
迄今为止,人工智能在创造性领域的表现本质上是模仿。它缺乏进行有意义或带有意图的创新的能力。在创造性领域,人类的创造力仍然占据上风。虽然人工智能可以通过从现有作品中学习模式来创作艺术或写作,但它缺乏想象力、文化洞察力和情感深度。虽然人工智能擅长整合已知信息,但难以进行巧妙的创造。这意味着人工智能艺术家可以重新混合不同风格,或者人工智能作家可以模仿某种流派,但要构思出蕴含深刻含义的原创概念或者能够在深层次上与人类产生共鸣的故事则是另一回事。
展开剩余88%图1 人工智能面临“有嘴无脑”的困境
在一项调查中,76%的人认为人工智能生成的内容并不是“真正的艺术”,他们认为人工智能创造的内容缺乏真实性或灵魂。人类创造者利用个人经验、丰富情感和明确意图进行创作——其核心在于自我表达。而人工智能没有自己的想法和目的,其输出仅仅是执行预设指令的结果。因此,从科学创新、小说创作到设计实践,这些依靠原创思想和创造性而蓬勃发展的领域仍然很难被人工智能真正颠覆。人工智能是一种强大的创意工具,但就目前而言,它更像是聪明的模仿者,而不是真正的灵感来源。专家认为人工智能“有嘴无脑”是可以理解的!
伦理与道德推理人工智能缺乏真正的道德指南或者对伦理的理解,这在一定程度上是由于道德困境的复杂性所致。在伦理考量方面,没有绝对的“是”或“否”。伦理观念可能会随着时代的发展而演变,并且深受文化和政治的影响。人工智能可以遵循预先设定的规则和算法,但它不具备人类价值观或良知。因此,人工智能缺乏复杂伦理决策所需的价值观、同理心和道德推理能力。
例如,在医疗分类或自动驾驶场景中,人们无法信任没有人类监督的人工智能做出的最终决策。人工智能可能会机械地优化结果(如效率或效用)而忽视公平性或同理心。在刑事司法领域,用于量刑或警务的算法由于基于历史数据进行训练而显示偏见,这可能会加剧不公平的偏见。
图2 结果和价值之间的权衡
这些人工智能工具无法识别个体情况或公平性,机器缺乏人类的道德推理和同理心。简而言之,每当决定涉及道德判断或责任时,人类的判断仍然是不可替代的,因为人类能够以人工智能无法做到的方式权衡是非。
判断与人类价值观现实世界的决策往往不存在单一的“正确答案”。它们取决于个人价值观、文化背景和情境判断。人工智能系统对此缺乏自己的理解,它依靠数据和目标进行决策,而不是对意义、情感或价值共鸣的把握。
以广告宣传活动的设计或制定社区政策为例。其成功与否远不止于测试数据(如点击率)。关键在于它是否契合目标受众的情感、价值观与文化语境——美学、价值观、基调,所有这些都来自人类的经验。就人类价值观而言,没有一刀切的解决方案,因为他们深受过去经验的影响、人工智能无法察言观色,它不知道某件事对某个人意味着什么。
图3 人类价值观与传统数据点的区别
这就是与道德、文化或判断相关的选择仍然需要人类主导的根据原因。人类拥有感知微妙差异、理解深层背景的独特能力,能够直觉性地察觉问题所在——即便所有量化指标看似完美。人工智能并不是为这种理解而设计的。
荷兰的福利政策就是一个很好的案例,该政策旨在为荷兰居民提供经济援助,其资格的筛选取决于机器学习算法。但由于预测工具存在缺陷,导致对移民和低收入女性的评估出现了不公平的情况。这进一步凸显了其训练数据中的偏见。
情商和同理心情商和同理心是许多人类角色的关键要素,也是人工智能的一个主要盲点。虽然人工智能可以模拟礼貌的对话,但它缺乏情商,无法真正理解或分享感受。例如,在医疗保健和心理咨询领域,患者不仅需要专业的诊断或治疗建议,往往还需要同理心和情感支持。在某些情况下,安慰和帮助是应对心理困扰的治疗性干预手段。
图4 情感的鸿沟是人工智能的优化陷阱
人工智能治疗师或护理人员或许能够提供信息,但人工智能无法对人类能够感受到的难以言喻的情感线索做出反应。同样,客户服务聊天机器人可以处理简单的查询,但愤怒或苦恼的客户可能需要能够感同身受并解决矛盾的人工客服的帮助。建立有意义的人际关系(无论是作为老师、咨询师还是护士)都需要同理心、对情感的细致理解以及对社交线索的适应能力,这些都是人类独有的特征。现实世界的经验反映了这一点:护理、咨询和社会工作中的角色仍然依赖于情感,因为人工智能无法提供用户所需的温暖和理解。在能够真正感受到或深度模拟人类情感之前,人工智能在任何需要情感联系的应用中仍然存在局限性。
身体感知和运动技能配备人工智能的机器人在受控环境(如工厂)中取得了长足的进步,但它们仍难以应对现实世界的复杂性。有一个广为人知的观点叫做“莫拉维克悖论”:人类认为容易的任务(行走、感知和操纵物体)是人工智能最难复制的功能。人工智能可以击败国际象棋大师,但家用机器人仍然无法叠好衣物。
图5 机器人难以完成基本的任务
模仿人类的感知和感觉运动技能需要对无数变量的实时理解,这对人工智能来说极具挑战性。例如,自动驾驶汽车可以在绘制地图的道路上以最优的方式行驶,但在不可预测、非结构化的环境中会表现不佳,例如在处理道路上意外出现的障碍物或人类手势等环境变化迅速的情况下。护理人员移动病人或厨师实时调整食谱依赖于人工智能所缺乏的人类智能和直觉。尽管机器人取得了长足的进步,但人类的灵活性和对现实世界的适应能力在很大程度上仍然是无与伦比的。
领导力和战略愿景领导力的核心在于激励人心、在不确定性中做出判断以及建立深厚信任。在这些高度依赖智慧的领域,人工智能的表现存在根本性局限——因为照本宣科的管理法替代真实的领导力。管理者和高管依赖于人工智能无法模仿的人际交往和战略技能,这些技能是他们多年经验积累的结果。
图6 结果导向的短视决策
人工智能可能比任何人都更快地处理业务指标,但它无法感知团队士气的微妙变化,也无法预测最近的决策对未来的影响。有效沟通和同理心是良好领导力的关键要素,而这些是人类固有的品质。正如一项分析指出,通过愿景、同理心和沟通来激励和引导他人的行为是人工智能无法企及的人类能力。
此外,人们通常不愿意在重要问题上接受机器的指令;他们希望领导者理解他们的价值观,并且愿意为自己的决策承担责任。如果由人工智能主导的决策导致事故,那谁为负责?程序员,公司,还是算法本身?人类喜欢找出根本原因。然而,当问题根源涉及复杂的人工智能系统时,往往缺乏可行的追责路径或有效的约束机制,
关键模式综合考虑人工智能在诸多领域表现出的局限性,可以确定一些关键的模式:
能够感知模式,而不能理解意义:人工智能在处理数据时没有真正理解情境、情感或意图。 可以执行规则,难以应对模糊性:人工智能在结构化的环境中工作,但在不可预测、混乱的现实世界中会崩溃。 只能模仿,而不会原创:人工智能将现有的内容重新整合在一起,没有真正的创造力、直觉或自我驱动的目的。 只生成结果,不承担后果:人工智能不能像人类那样关心后果、承担责任或做出符合道德的决策。 知识聚合者,而不是智慧拥有者:人工智能缺乏来自生活经验和人类洞察力的判断力、灵活性和视角。人工智能的局限性是恒定不变的吗?
本文聚焦于当前人工智能技术所展现的能力,必须明确的是,这些局限性并不是恒定不变。人工智能领域正在快速发展与演进,可以预见,其现有的局限性将随着技术进步而逐步减少。人工智能在未来能够克服一些挑战,这不足为奇。而如果人工智能在某些方面(例如伦理)能够取得突破,将会看到人工智能运作方式的范式转变。
常见问题解答Q1:为什么人工智能不能取代人类的创造力?
答:人工智能模仿现有数据的模式,但缺乏想象力、情感和意图。它并非出于目的或意义进行创作,只是根据训练输出内容。人类凭借个人经历和情感进行创作,虽然人工智能可以重新组合内容,但无法真正创新。
Q2:可以信任人工智能做出伦理或道德决策吗?
答:不能。人工智能并不理解伦理,只是遵循规则。它缺乏同理心、文化意识和是非感。在涉及公平或责任的复杂决策中,人类判断仍然至关重要。
Q3:人工智能在现实应用中最失败的地方是什么?
答:人工智能在非结构化、不可预测的情境中表现不佳。它无法感知情感、处理细微差别或像人类一样适应变化。而需要同理心、判断力或身体感知的角色(例如护理人员、领导者或社会工作者)仍然依赖于人类。
发布于:北京市配先查配资-股票配资门户网-天津专业炒股配资网-国内知名股票配资公司有哪些提示:文章来自网络,不代表本站观点。