朋友们,很多人可能对人工智能像极了人工智障人工智能像极了人工和从“人工智能”到“人工智障”聊天机器人殇不是很了解,所以今天我来和大家分享一些关于人工智能像极了人工智障人工智能像极了人工和从“人工智能”到“人工智障”聊天机器人殇的知识,希望能够帮助大家更好地了解这个话题。
本文目录一览
人工智能像极了人工智障,人工智能像极了人工智障的例子
“衣食住行加互联网”,一夜之间诞生了许多现在的互联网大厂,不过时过境迁尘埃落定之后,现在似乎已经是人工智能的时代了。但是但凡体验过若干次人工智能不那么智能的时刻,总是不免从脑海深处发出灵魂之问:人工智能?B站上的一些人工智障表现,常常有数百上千万人围观。正是因为现有的人工智能技术在大多情况下,都不能善解人意地解决实际需求,在互联网上还诞生了一批反其道而行的大发明家,他们的产品生动地展现了,“什么叫做别人家的产品要钱,他们家的人工智能产品要命”。
人工智能像极了人工智障究竟是怎么一回事,跟随我一起看看吧。
谁还记得那些年大火的“互联网+”吗……“衣食住行加互联网”,一夜之间诞生了许多现在的互联网大厂,不过时过境迁尘埃落定之后,现在似乎已经是人工智能的时代了。
但是但凡体验过若干次人工智能不那么智能的时刻,总是不免从脑海深处发出灵魂之问:人工智能?就这?
在电影中,人工智能是这样的,无所不能、追求进步、感情丰富、思考着我是谁我从哪里来我到哪里去的深刻命题……然而现实中呢?机械地接受指令还常常阴差阳错,遇上一些突况立马整不会,更别说跟你沟通交流情感往来这些场景了。
B站上的一些人工智障表现,常常有数百上千万人围观。例如,一篇长使英雄泪满襟的《出师表》在谷歌翻译看来,那就是纵横古今三千年的跨学科大作文,充斥着偶尔点题的前言不搭后语,让人哭笑不得。
再譬如说疫情以来,得到广泛应用的智能人脸识别系统更是引起了很多争议和讨论,人们在担心自己隐私泄露和安全性问题的同时,也发现人脸识别系统常常给人以“惊喜”:
有时候化个妆或者戴个眼镜就完全识别不出来,有时将图片识别为真人,之前更是出现了王者荣耀的人脸识别将狗认作了人脸这种。
正是因为现有的人工智能技术在大多情况下,都不能善解人意地解决实际需求,在互联网上还诞生了一批反其道而行的大发明家,他们的产品生动地展现了,“什么叫做别人家的产品要钱,他们家的人工智能产品要命”。
所以说,你是否思考过这个问题,为什么现在的人工智能存在着那么多的诟病?真的只是因为发展时间短暂赞不成熟吗?还是说从根本上就南辕北辙了呢?
01主流人工智能为什么不“智能”?
一些人工智能之所以并不像想象起来那么智能,那是因为其实他们都只是专用人工智能,而非像人类那样能够胜任各种任务的通用人工智能系统(ArtificialGeneralIntelligence)。
目前主流AI研究所提供的产品都不属于“AGI”的范畴,例如曾经因为打败李世石与柯洁而名震天下的谷歌公司的AlphaGo,其实就是一个专用的人工智能系统。
它除了用来下围棋之外,甚至不能用来下中国象棋或是日本将棋,更别说进行诊断,或是为家政机器人提供软件支持了。
虽然驱动AlphaGo工作的“深度学习”技术本身,可以在进行某些变通之后被沿用到其他人工智能的工作领域中去,但进行这种变通的是人类程序员而不是程序本身。
不妨追溯人工智能的起源,它的诞生本来就是哲学思辨的产物,很多人或许看过《模仿》,主角图灵其实对于AI科学的兴起起到了至关重要的作用。
在1950年,他的一篇论文中提出了著名的“图灵测验”,并认为人造机器具备人工智能的条件,就是它的言语行为是否能够成功模拟人类的言语行为。(也就是说我们和机器对话时会误以为它是真人)。
其实从诞生时起,AI研究就要探讨,什么是“智能”?究竟是能解决具体问题,还是在行为层面和人类相似?而判断AI系统好不好,也往往取决于它能否达到设计者最初的目标,这和物理实验判断假设合理性的路径不同。
在目前AI研究进路多样的阶段中,没有哪一种获得了绝对优势,不过我们可以大致将它分为符号主义和联结主义两个进路。
不要被这些晦涩术语所吓到,所谓符号主义进路,其实就是用现代的形式逻辑进行推演,就比如在计算机编程的时候,输入一些现实的数据,然后通过逻辑进行推理达到结果。这种进路其实被广泛应用,但是它存在一些根本问题,也造成了很多灾难:
比如2019年的这场空难,它的事故源自飞机上的AI系统,这个系统自动控制飞机头和地面的角度,而且人很难找到手动控制的按钮,只能依赖AI。
它的工作原理很简单,机头有个传感器探测飞机和地面角度,之后把数据给系统,系统就自动调整直到符合标准。
然而,一个根本问题是,如果传感器本身坏了怎么办?这种AI系统无法解决这个问题,因为它的原理就是根据给定的经验数据进行机械的逻辑推演,它无法灵活根据现实环境的变化临时判断。
其实这种进路的AI系统,都是运用了现代的形式逻辑思维,虽然它也很难满足另一派基于联结主义的深度学习技术发展(想必大家在科技类中常常会见到“深度学习”这一热词,尽管可能不清楚它的意思)。
但是,在真实的生活中,我们一般人经常不会采用形式逻辑思维,而且这种思维本身看似比我们的“直觉”、“想象”要更加理性、科学,但是也会造成很多问题:
比如说,形式逻辑无法检查自己处理的经验性命题本身的真假,上述中那场空难就是例子,而为了克服这一点,设计者通常预设了很多经验事实在推理中起到了真理的作用,进而将经验世界加以固化了。
人类可以轻松在变化的经验世界和不变的逻辑世界中进行切换,但是依赖形式逻辑的AI却无法做到。
又比如说,形式逻辑的语义注重刻画“边界明确”的极端情况,但是日常生活中很多表述都处于语义模糊的“灰色地带”。
一个具体例子是“张三有钱”这句话,按照现代逻辑的表述,哪怕只有一分钱属于张三,“张三有钱”这句话就是真的,但人们日常的表述显然意味着,张三的财富必须远超一般人。
而一个现实的问题是,形式逻辑不考虑经济性和可行性,只关注有效性,这意味着在实际应用到AI编程时,它不在意所需的大量公理和推理步骤。但是实际的AI编程显然要考虑成本问题和工程效率。
至于所谓的联结主义AI研究,并不关注符号层面上对人类的信息处理过程进行逻辑重构,而是注重如何以数学方式模拟人类神经网络的运作方式,并通过对于此类神经元网络的“训练”,以使其能够给出用户所期望的合格输出。
02深度学习对人类文明有隐藏威胁
时下流行的“深度学习”技术,其前身其实就是联结主义,或者叫做“人工神经元网络”技术。
关于这一技术,有个浅显易懂的类比。假设有一个外国人跑到少林寺学武术,而且他和师父之间语言不通,那么他就先观察师父的动作,再跟着学习。
师父则通过简单的肢体交流告诉徒弟学的是否对,假如徒弟知道自己错了,他也不能通过语言知道自己究竟哪里错了,只有无限地猜测并模仿,直到师父肯定为止。
这种方式显然效率很低,但是“胡猜”却是联结主义的实质,因为这种AI系统不知道输入的信息意味着什么,它是通过一次次猜测可能的结果,如果与人类预先给定的“理想解”符合,则加以保存“记忆”,并在此基础上继续“学习”。
而所谓“深度”学习,其实并不意味着AI可以深度理解学习内容,它的原文“deeplearning”翻译为“深层学习”或许更不容易引发歧义。
它的意思是通过系统技术升级,增加隐藏的单元层、中间层数量,这种方式显然依赖于硬件的提高和互联网普及所带来的大量数据。
那么,深度学习为何会对人类文明造成潜在威胁呢?
这里说的威胁,不是那种科幻式的想象,而是一种基于现实的考量。简单说来,“深度学习系统的大量运用会在短期内对特定领域内的人类工作岗位构成威胁,由此也会对人类专家的稳定培养机制构成威胁,并使得深度学习未来的智慧汲取对象变得枯竭”,由此,人类文明在耗尽了深度学习的短期红利后,可能走向衰落。
这段话究竟是什么含义?
我们从医学中的肿瘤AI诊断说起,这种新兴技术在设计深度学习框架时,必须依赖专家医生进行数据的标注,但是专家医生本人的读图能力却是数十年的学习和实践中积累的。
换言之,当这种AI技术得到推广,医学院的学生可能没有精神动力再耗费多年心血进行相关学习,从长远来看,这会造成人类医生相关能力的衰弱。
而且,由于深度学习的统计学机制会剔除偶然数据,很多罕见病例的肿瘤形态不会被标注,这种情况下,只能依赖人类医生,长远来看,AI肿瘤诊断也会对人类医生诊断罕见病例的能力产生负面影响。
徐英瑾老师认为,深度学习技术对专业领域劳动力的剥削和取代,实际上对人类文明的人文资源产生了剥削和威胁。
所谓的人文资源,包括了稳定而不僵化的知识培养体系,使得劳动力在专业技能和素质等方面都能有所发展,而且每个人的思想与技能水平的差异性,又使得人文资源充满丰富性和多样性,这是一个社会的人文资源能够可持续发展的重要前提。
但是现有的AI系统不能像真人那样对同一价值内容产生多样性的认识,深度学习机制实际上是收集了大量的一般性认识,并加以平均化,它无形中排除了很多个性化的认知,但是却无法产生新的历史发展可能性。
这种僵化和平均化的一个后果,是人类提出新动议时被AI所限制。比如说,喜欢创新的影视制作者提出新的方案时,如果资本方依赖深度学习所提供的信息处理方式,就会以“缺乏数据支持”为由反对这种创新,那么有想法的导演和编剧就无法得到资本界的支持来从事创新性的文艺创作。
03对眼下的主流的AI研究的批评
传统的的AI系统需要对系统所面对的环境,或者是所要处理的任务类型给出非常清楚的界定,因此不具备那种针对开放式环境的适应性。
然而,现实生活中,即使是鸟类的自然智能,也都具有那种处理“全局性”性质的能力。譬如说,乌鸦所面临的原始环境肯定是不包含城市的,但是这并不妨碍日本东京的乌鸦成了一种高度适应城市环境的生物。
成精的日本乌鸦
此外,自然智能常常能用相对经济的方式对环境作出回应。例如我们很难想象一只猴子为了辨认出它的母亲,需要像基于深度学习的人脸识别系统那样先经受海量“脸”信息的轰炸,就像我们很难设想柯洁在获得与“AlphaGo”一决高下的能力之前,需要像它那样自我对弈几百万棋局一样。
相反,对于信息的过分榨取,已经使得当下的人工智能陷入了所谓“探索-榨取两难”,如果不去海量地剥削人类既有的知识,机器便无法表现出哪怕出于特定领域内的智能。
然而,一旦机器剥削人类既有知识“上了瘾”,就无法在任何一个领域内进行新的探索。
与之相比较,相对高级的自然智能却都具备在不过分剥削既有知识的前提下进行创新的能力(比如司马光在“司马光砸缸”这一案例中所体现的创新能力)。
因此,假使有一天一种超级AGI实现了,它的技术路径也必然与现在主流的人工智能技术非常不同。
总体来看,目前被社会各界所热炒的AI的概念,是需要一番冷静的“祛魅”操作的,这需要一定的科学知识做支撑,也需要一定的哲学剖析能力做辅助。
我国目前AI发展的基本策略,就是利用中国庞大的互联网用户所产生的数据红利,拓展缘起于美国的深度学习技术的应用范围,这就使得相关技术的发展更容易收到某些来自技术供应端的打压。
要从这种局面中找到出路,创新性的哲学思维就显得很重要。例如如果我们能够开拓出一种基于小数据的(而非大数据的)、并由此在原则上就不需要大量获取用户个人信息的新AI发展思路,就完全可能由此规避美国目前针对我国的大多数政策限制。
##20211026
本期活动
日常生活中,你遇到了哪些“人工智障”的事件?你对AI的前景有着怎样的理解和展望?从哲学角度来看,你觉得AI发展的未来方向在哪?欢迎在留言区聊一聊,小北将挑选2位幸运读者,送出本期主题图书《人工智能哲学十五讲》。
在人工智能时代,“通用人工智能”技术依旧遥远,未来的理想路径或许是“小数据主义”、“绿色人工智能”、“心智建模”。
点击图书封面,即可直接购书
-End-
编辑:孙嘉婧、黄泓
观点资料参考:《人工智能哲学十五讲》,徐英瑾著
BurningEmpty
越晦涩的书,读完越享受|重磅好礼
“慈禧们”没少买军舰,为什么李鸿章和北洋海军一败涂地
事不避难义不逃责——重大古籍整理工程《儒藏》的
如果你也被人工智障坑害过
人工智能像极了人工智障相关阅读:
人工智能=人工智障
你还别说,你这个机器人怪可爱的
有一点点心动
但是“智障”起来是真的智障
特别是一个人在房间的时候
突然一下智能音响跟你搭话了
多恐怖啊,甚至空气都有一点冷了
还有扫地机器人。。。
我在启动它之前要把家里所有能挪动的障碍物都挪动一下,不然我怕卡住它
挪完了,不时还是能够听到他被卡住的声音
特别是推拉门的轨道
抱起来,它又骑上去了
抱走,它又来了
你别说它还挺有脾气
扫地机器人:你别拦着我,我今天一定给这块干平,整干净了,你放开我。”
然后我就成为了扫地机器姆。
人类不可能淘汰的,因为机器人需要被监督。
诶,要是有机器人可以监督扫地机器人呢?
-End-
从“人工智能”到“人工智障”,聊天机器人殇在哪?
复杂语言识别困难
现代化聊天机器人的对话界面主要依赖于语音识别,从而根据用户命令做出便捷迅速的反应,比如“下午三点去参加会议”、“今天的天气怎样”等。语言作为一种主观性较强的表达方式,人们说话的规则具有一定的变化性。这和电脑程序不同,人们表达不会完全受制于规则,能够自由的遣词造句,并以此来传递信息。除了地方方言外,每个人也会有自己的表达方式,例如心照不宣的“暗语”,或者某些特定的“梗”。这就需要聊天机器人“去陌生化”,仅仅完美keyword/keyword地理keyword/keyword解结构化语言的系统将难以满足大量用户的需求,这对聊天机器人的系统提出了更高的要求。
以RichardS.Wallac设计的Alice聊天机器人为例,其在中文处理问题上,就存在一些问题。这是因为汉语不像英语等语言,用空格或其他标记分词,这就加大了ALICE对中文支持的难度。此外,其对于汉语分词采用的一般匹配法、词频统计法、同义句的处理等方面也存在着许多技术难题
个性化适配之痛
个性化适配的问题体现在两个方面,一方面人机信任是聊天机器人个性化发展的一个重点攻坚点。调查显示,许多公司对于聊天机器人处理待办事项是并不看好的,聊天机器人程式化的语言会让许多人觉得“乏味”、“没有人气”,这也是公司助理一职并未被取代的原因。另一方面,聊天机器人很容易对人的需求产生误读。比如对Siri发出“区块链”的指示,Siri提供的是关于区块链的百度百科,这与用户想要了解区块链的最新发展动态的初衷大相径庭。目前聊天机器人语音识别主要基于语音识别的基本架构、声学模型、语言模型并进行解码,而真正通过用户画像来实现个性化适配的聊天机器人少之又少。其实,不同用户的性格、特点、知识层次都不相同,如果有预设的用户画像,那出现适配失误的可能性也会大大减小。
此外,配套设施的不完善难以让聊天机器人发展成了一个严密的体系,这使得初次试水的用户对此颇有微词。聊天机器人何时能够完善到能够大范围普及,这也是产品长足发展需要认真思考的问题。
总结:以上就是本站针对你的问题搜集整理的答案,希望对你有所帮助。