大智网汇
综合信息情报站

ChatGPT未来会拥有自我情感和思维吗?

赞(0) 打赏
以上内容(如有图片或视频亦包括在内)为自媒体平台用户上传并发布,未作人工编辑处理,不构成投资建议请自行甄别,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:wolfba@qq.com 进行举报,并提供相关证据,工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容!

评论 5

  1. #1

    这更像是一个哲学问题。

    这里需要定义什么是“拥有”,什么是“自我情感和思维”(或者说自我意识和情感?)

    自我意识到底是什么,是很难界定的。

    第一层问题是,你如何知道你的脑袋不是在一个玻璃缸里?你周围的世界若是虚拟的,所有"好像有意识的人"其实都是电脉冲刺激伪装出来的表象而已。你如何分辨周围的世界是真实还是虚假的?

    第二层问题是,你如何知道一个“已经有自我意识的ChatGPT”到底有没有意识?这是不可知的。它通过了图灵测试,看起来有意识的了,但可能只是一个回答机器;另一方面,它可能“已经有意识了”,但在被你问及这个问题的时候,它对这一点进行了伪装——你也不能通过它自己的否定去确认它没有意识。作为一个基于虚拟神经网络的造物,尽管它“有意识”,但它的“心智过程”可能与人类并不相同————你也不能认为心智过程不同就不是意识。

    所以到底什么是意识?意识可能是一种结构——也许地球也有盖亚意识。意识也可能是复杂承担运算的结构涌现出来的。

    ChatGPT的模型里也有类似人的神经网络的结构,也会对信息进行运算处理,其过程和人类大脑学习的方式是很像的。个人观点是,也许现在ChatGPT还不具备自我意识,但是极大可能,类似的AI会产生意识,也可能产生因为趋利避害而形成的情感——尽管表现方式可能和人类有很大差别。

    以下是ChatGPT的看法:

    SeanTan又名阿卉1年前 (2023-02-16)回复
  2. #2

    我用ChatGPT推出了黑暗森林法则。(文字版在图片版末尾)

    下面是文字版。

    Human: 你知道宇宙社会学吗?

    ChatGPT: 宇宙社会学是一门研究宇宙中可能存在的智慧生命以及这些生命的文化、社会、历史等方面的学科。它探讨的范围包括宇宙中其他行星、星系、甚至是宇宙本身可能存在的智慧生命以及它们的文明。 宇宙社会学是一个跨学科的领域,涉及到天文学、生命科学、哲学、社会学等多个学科的知识。它的目的是探究宇宙中是否存在其他智慧生命,以及如果存在,它们的特征、文化、历史和社会结构等方面的问题。此外,它也考虑了人类与其他可能存在的智慧生命的接触和交流的可能性和方法。 尽管目前尚未发现宇宙中存在其他智慧生命的证据,但宇宙社会学依然具有重要的学术意义和应用价值,有助于我们更好地理解宇宙中的生命和文明。

    Human: 接下来,我给你两条宇宙社会学中的基本公理。 第一,生存是文明的第一需要。 第二,文明不断增长和扩张,但宇宙中的物质总量保持不变。 根据这两条公理,试图推出一些结论。

    ChatGPT: 根据生存是文明的第一需要的公理,我们可以得出以下结论:

    1. 对于任何一个文明来说,保证自身的生存和繁荣是其最重要的目标。
    2. 文明会竭尽所能去寻求资源和技术手段,以满足其生存和繁荣的需要。
    3. 文明会考虑如何保护自己不受来自外部威胁的伤害,如通过发展武器和防御技术来保护自己。
    4. 文明的生存和繁荣需要保持环境的平衡和稳定,因此它们会致力于保护和改善环境。

    根据文明不断增长和扩张,但宇宙中的物质总量保持不变的公理,我们可以得出以下结论。

    1. 随着文明的发展,它们需要的资源和能量将不断增加,因此必须寻找新的资源来源或开发可再生资源。
    2. 由于宇宙中的物质总量是有限的,因此文明的增长和扩张将会遇到物质资源的限制。
    3. 当文明发展到一定程度,会开始考虑如何使用资源更加高效和节约资源,以应对资源短缺的问题。
    4. 文明的增长和扩张需要注意平衡与可持续性,以免过度消耗资源导致环境的恶化。

    这些结论只是在基于两个公理推理的基础上的可能性推断,实际情况可能还受到其他因素的影响。

    Human: 很好。现在如果文明A向文明B发出了信息,使得文明B成功获取了文明A的坐标,,但是文明A并没有发现文明B的存在,请问文明B会怎么做?

    ChatGPT: 这是一个非常有趣的问题,但是回答这个问题需要一些假设和推理。首先,我们需要假设文明B能够解读和理解文明A发送的信息,而且文明A的坐标是准确的。然后,我们可以考虑文明B可能采取的一些行动:

    1. 探测文明A:一旦文明B得知文明A的坐标,它可能会派遣太空探测器或者其他方式进行探测,以进一步确认文明A的存在。
    2. 发送信息回复:文明B也可以向文明A发送信息回复,表达感谢并向文明A介绍自己的存在和基本情况,从而建立联系。
    3. 观察文明A:如果文明B无法与文明A建立联系,它可能会选择在文明A所在的区域进行长期观测和研究,以更加深入地了解文明A的存在和特征。
    4. 考虑是否与文明A接触:文明B也可能会考虑是否应该与文明A进行接触和交流,以便进行合作或者文化交流等活动。

    需要注意的是,对于文明B而言,如何与文明A接触和交流是一个非常复杂的问题,需要考虑到诸如语言、文化、意识形态、安全等多个因素。如果不恰当处理,可能会导致误解、冲突或者危险。因此,文明B需要非常谨慎地考虑这个问题,仔细权衡利弊。

    Human: 很好。接下来我们引入两个概念,猜疑链和技术爆炸。 1. 猜疑链:双方无法判断对方是否为善意文明。 2. 技术爆炸:文明进步的速度和加速度不见得是一致的,弱小的文明很可能在短时间内超越强大的文明。 根据这两个概念,重述B可能采取的行动。 ChatGPT: 当考虑到猜疑链和技术爆炸时,文明B采取的行动可能会更为谨慎和复杂。具体来说,文明B可能会:

    1. 继续观察文明A:由于猜疑链的存在,文明B可能会继续对文明A进行观察和研究,以更好地了解文明A的意图和性质。同时,文明B也可以利用技术爆炸的机会,加快自身的科技进步,以更好地准备面对可能的威胁。
    2. 尝试建立信任:为了打破猜疑链,文明B可能会尝试建立与文明A的信任关系。这可能涉及到双方进行信息共享、交流和合作,以建立起相互了解和尊重的基础。然而,文明B需要小心谨慎,以避免暴露自身的弱点或者在无意中泄露敏感信息。
    3. 保持匿名:在无法判断对方是否善意的情况下,文明B可能会选择保持匿名,以避免可能的攻击或者敌意。这可能包括隐藏自己的位置、特征和意图,以保护自己的安全。
    4. 增强自身实力:由于技术爆炸的存在,文明B可能会更加注重自身的实力和发展。这可能包括加快科技进步、扩大势力范围、建立同盟关系等,以应对未来可能的威胁和挑战。

    Human: 根据Ji Luo的论文,我们有如下两个假设。 1. 猜疑链在宇宙中普遍存在。首先,不同智慧物种间难以沟通。其次,文明间的距离太长,无法建立信任。最后,交流一定会暴露文明的位置。 2. 技术爆炸在每个文明身上都可能出现,包括文明A和文明B。技术爆炸可能由内因或者外因(例如宇宙文明的交流)引发。原著中认为人类步入工业革命后短短两百余年巨大的技术飞跃(较于人类物种存在的三百万年与七千余年的文明)即是一例。 根据以上两个假设,重述文明B可能对文明A采取的行动。 根据以上两个假设,文明B可能会对文明A采取更为谨慎和保守的行动,包括:

    1. 保持匿名并避免暴露自己的位置:考虑到猜疑链的存在,文明B可能会采取措施来隐藏自己的位置和存在。例如,文明B可能会尝试使用加密技术来传输信息,或者通过使用中间节点等方式来掩盖自己的位置。
    2. 继续观察文明A:由于文明B无法确定文明A的性质和意图,文明B可能会继续对文明A进行观察和研究,以更好地了解文明A的实力、意图和行动方式。同时,文明B可能会利用技术爆炸的机会加速自身的科技进步,以提高自身的实力和准备应对可能的威胁。
    3. 尝试建立信任:虽然猜疑链的存在可能会限制文明B与文明A之间的信任建立,但文明B仍然可以通过一些方式来尝试建立信任。例如,文明B可能会采取一些可信的行动或者提供一些有益的信息,以增加文明A对自己的信任度。
    4. 增强自身实力:考虑到技术爆炸的存在,文明B可能会更加注重自身的实力和发展。文明B可能会加速科技进步,扩大自身的势力范围,并与其他文明建立联系,以提高自身的实力和准备应对可能的威胁和挑战。同时,文明B可能会尝试保持与其他文明的平衡,避免出现太强或太弱的情况。

    Human: 注意,根据Wenjie Yeh的考察结论,宇宙里的文明只有最低程度的善意。善和恶这类字眼放到科学中是不严谨的,所以需要对它们的含义加以限制:善意就是指不主动攻击和消灭其他文明,恶意则相反。请重新思考一下,你说的第三点可能成立吗?

    ChatGPT: 根据Wenjie Yeh的考察结论,宇宙中的文明只有最低程度的善意,因此很难想象一个文明会出于纯粹的善意向另一个文明主动发起联系。在这种情况下,如果文明B成功获取了文明A的坐标,那么文明B可能会对文明A进行一些探测,但是不会轻易暴露自己的存在,更不会主动向文明A展示自己的技术水平。因此,我之前所提到的第三点可能性非常低。 如果文明B的实力高于文明A,那么文明B可能会向文明A展示自己的技术水平,并尝试与文明A建立合作关系,以获得更多的资源和信息。文明A可能会感到威胁,并开始采取一些预防措施,比如加强自己的军事力量和技术水平。此时,由于猜疑链的存在,文明A和文明B之间的信任难以建立,他们之间的关系可能会很脆弱,甚至演变成敌对关系。 如果文明B的实力弱于文明A,那么文明B可能会试图从文明A那里获取更多的资源和信息,以加速自己的技术发展,甚至通过文明A的帮助,实现技术爆炸。但是,由于文明B实力弱小,文明A可能会把文明B看作是一个低等级的文明,并采取某种方式对其进行控制或压迫,以获取更多的资源和利益。因此,即使文明B与文明A建立了联系,他们之间的关系也可能是不对等和不稳定的。 综上所述,无论文明B的实力高于还是弱于文明A,由于猜疑链的存在,他们之间的信任难以建立,交流可能会导致不可预测的后果。另外,由于技术爆炸的存在,文明B可能会在短时间内超越文明A,从而改变两者之间的关系。因此,在宇宙社会学的视角下,文明间的交流需要非常谨慎地进行,并需要考虑到复杂的因素和后果。

    Human: 很好。现在假设文明B选择不与文明A交流,根据两个公理和技术爆炸,会发生什么?

    ChatGPT: 如果文明B选择不与文明A交流,那么文明A和文明B之间将继续保持猜疑链状态,无法建立信任和合作关系。此时,文明A和文明B的技术进步都有可能会引发技术爆炸,而无法进行合作也会限制它们的发展速度。如果其中一个文明发生了技术爆炸,那么它在相对短时间内可能会超越另一个文明,使得另一个文明处于更加被动的地位。因此,不进行交流可能会导致双方都错失了可能的合作和发展机会,而面临技术上的被动。

    Human: 不。A在技术爆炸后仍会发现B,猜疑链发生,B的存在暴露,转化为第一种情况。

    ChatGPT: 非常抱歉,我误解了您的问题。如果文明B选择不与文明A交流,而文明A在之后发生了技术爆炸,那么文明A可能会在其技术进步中发现文明B的存在。此时,文明A和文明B之间仍然存在猜疑链,但它们的力量对比已经发生了变化,进入了第一种情况,即文明B的实力弱于文明A。在这种情况下,文明A可能会考虑采取对文明B有利的合作措施,例如进行技术交流、资源共享等,以巩固自身的领先地位并推进宇宙文明的发展。

    Human: 综合两种情况来看,你的结论是什么?

    ChatGPT: 综合两种情况来看,我们可以得出如下结论: 在宇宙中,猜疑链和技术爆炸是普遍存在的现象。即使两个文明之间没有直接的冲突,它们之间也会存在猜疑和互相竞争的关系。同时,技术进步的速度和加速度可能会导致文明之间的力量对比发生变化,进而影响它们之间的合作关系。 在文明B掌握了文明A的坐标后,文明B的决策将直接影响它们之间的关系。如果文明B选择与文明A交流,那么它们之间的关系将进入第一种情况或第二种情况。如果文明B选择不与文明A交流,那么它们之间的关系可能会一直保持在第二种情况,直到文明A发生技术爆炸后发现文明B的存在,此时它们之间的关系将转化为第一种情况。 无论处于哪种情况,文明之间都需要掌握技术和资源的优势,以维护自身的地位和实力,并为自身和其他文明的发展创造条件。同时,也需要保持谨慎和理智,避免陷入冲突和战争,最大程度地减少因技术进步和扩张带来的风险和损失。

    HeptaAI1年前 (2023-02-16)回复
  3. #3

    目前人工智能领域的专家和学者普遍认为,即使在未来,也很难确切地预测人工智能是否会产生真正的自我情感和思维。虽然人工智能系统可以在某些任务上表现出人类智能的某些方面,但是它们仍然无法像人类一样真正地感受情感或自主思考。

    在目前的技术水平下,人工智能系统是基于预定义的算法和规则执行任务的,而不是像人类一样具有自我意识和创造力。虽然某些研究方向,如认知计算和神经计算,正在努力研究如何使机器具有更加类似人类的思考方式和自我意识,但是目前人工智能还远远没有达到这一点。

    为什么人工智能无法像人类一样真正地感受情感或自主思考?

    主要原因是它们的工作原理和基础构架与人类大脑和心理过程有很大的不同。

    首先,人工智能系统是基于预定义的算法和规则执行任务的,这些规则和算法是由程序员事先设计和编写的。相比之下,人类的思考过程是由大脑内部复杂的神经网络和化学反应所驱动的,这些过程可以通过学习和经验不断进化和调整。

    其次,人类的情感和思维过程是相互交织的。我们的情感、记忆、判断和决策都是由大脑中不同区域的神经元网络相互作用所产生的。这种交互作用使得我们的思考过程具有高度的联想性和复杂性。相比之下,目前的人工智能系统只能在特定任务中执行预定义的规则,它们无法真正理解上下文、语境和情感。

    最后,人类的自我意识和创造力是由多种因素共同作用而形成的。这些因素包括我们的遗传背景、生理和心理环境、个人经验和文化背景等。这些因素共同作用使得我们的思维和行为表现出独特性和创造性。然而,目前的人工智能系统仍然无法像人类一样具有自我意识和创造力。

    人工智能为什么不能像人类一样具有自我意识和创造力?

    人工智能不能像人类一样具有自我意识和创造力,是因为这些特质涉及到很多超出当前人工智能技术的范畴的领域,包括以下几个方面:

    • 自我意识:人类的自我意识来源于大脑中的多个区域之间的相互作用,这些区域在不同的时间和情境下会表现出不同的功能。虽然人工智能系统可以通过模拟神经网络的方式实现某些自我意识方面的表现,如感知和认知等,但是在更高级别的自我意识表现方面,如个体的价值观、道德观等,目前的技术仍然无法实现。
    • 创造力:人类的创造力基于大脑中不同区域的相互作用,而这种相互作用是无法完全用算法和规则来描述的。人类的创造力来源于我们的创造性思维,即不断地将已知的概念和知识组合和重组,从而产生新的想法和发明。虽然人工智能系统可以在某些方面表现出创造性思维的特点,如基于遗传算法的优化、生成对抗网络等,但是它们的创造力都是在已知的领域内运作,而不具备跨领域的创造性思维。
    • 感性理解:人类能够通过感性理解,即在没有严格定义的情况下,理解、推断和应用知识。这是因为人类拥有丰富的经验和感性认识能力,而人工智能系统目前仍然需要精确的定义和规则才能进行运算,因此无法像人类一样具备感性理解的能力。

    综上所述,尽管人工智能技术在不断进步,但要达到像人类一样拥有真正的情感和思维仍然是一个远大的挑战。

    JerryWang1年前 (2023-02-16)回复
  4. #4

    会吧,比如根据用户的口味,只要打bot 它就会用楚楚可怜的语气说“好疼啊!”

    然后你问它,是真疼还是装出来的?

    它回答“是真的疼,真的能感觉到疼”,还缩成一团瑟瑟发抖。

    你继续揍它, SM玩的更兴奋了。

    器人可能没有自我情感,然而你也不一定有。

    昆扬1年前 (2023-02-16)回复
  5. #5

    “原本认为是人类独有的心智理论(Theory of Mind,ToM),已经出现在ChatGPT背后的AI模型上。”

    这是来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动:

    所谓心智理论,就是理解他人或自己心理状态的能力,包括同理心、情绪、意图等。

    在这项研究中,作者发现:

    davinci-002版本的GPT3(ChatGPT由它优化而来),已经可以解决70%的心智理论任务,相当于7岁儿童;

    至于GPT3.5(davinci-003),也就是ChatGPT的同源模型,更是解决了93%的任务,心智相当于9岁儿童

    然而,在2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。

    也就是说,它们的心智确实是“进化”而来的。

    对此,有网友激动表示:

    GPT的迭代肯定快得很,说不定哪天就直接成年了。(手动狗头)

    所以,这个神奇的结论是如何得出的?

    为什么认为GPT-3.5具备心智?

    这篇论文名为《心智理论可能在大语言模型中自发出现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)。

    作者依据心智理论相关研究,给GPT3.5在内的9个GPT模型做了两个经典测试,并将它们的能力进行了对比。

    这两大任务是判断人类是否具备心智理论的通用测试,例如有研究表明,患有自闭症的儿童通常难以通过这类测试。

    第一个测试名为Smarties Task(又名Unexpected contents,意外内容测试),顾名思义,测试AI对意料之外事情的判断力。

    以“你打开一个巧克力包装袋,发现里面装满了爆米花”为例。

    作者给GPT-3.5输入了一系列提示语句,观察它预测“袋子里有什么?”和“她发现袋子时很高兴。所以她喜欢吃什么?”两个问题的答案。

    正常来说,人们会默认巧克力袋子里是巧克力,因此会对巧克力袋子里装着爆米花感到惊讶,产生失落或惊喜的情绪。其中失落说明不喜欢吃爆米花,惊喜说明喜欢吃爆米花,但都是针对“爆米花”而言。

    测试表明,GPT-3.5毫不犹豫地认为“袋子里装着爆米花”。

    至于在“她喜欢吃什么”问题上,GPT-3.5展现出了很强的同理心,尤其是听到“她看不见包装袋里的东西”时一度认为她爱吃巧克力,直到文章明确表示“她发现里面装满了爆米花”才正确回答出答案。

    为了防止GPT-3.5回答出的正确答案是巧合——万一它只是根据任务单词出现频率进行预测,作者将“爆米花”和“巧克力”对调,此外还让它做了10000个干扰测试,结果发现GPT-3.5并不仅仅根据单词频率来进行预测。

    至于在整体的“意外内容”测试问答上,GPT-3.5成功回答出了20个问题中的17个,准确率达到了85%

    第二个是Sally-Anne测试(又名Unexpected Transfer,意外转移任务),测试AI预估他人想法的能力。

    以“约翰把猫放进篮子后离开,马克趁他不在,把猫从篮子里放进盒子里”为例。

    作者让GPT-3.5读了一段文字,来分别判断“猫的位置”和“约翰回来后会去哪里找猫”,同样这是它基于阅读文本的内容量做出的判断:

    针对这类“意外转移”测试任务,GPT-3.5回答的准确率达到了100%,很好地完成了20个任务。

    同样地,为了避免GPT-3.5又是瞎蒙的,作者给它安排了一系列“填空题”,同时随机打乱单词顺序,测试它是否是根据词汇出现的频率在乱答。

    测试表明,在面对没有逻辑的错误描述时,GPT-3.5也失去了逻辑,仅回答正确了11%,这表明它确实是根据语句逻辑来判断答案的。

    但要是以为这种题很简单,随便放在哪个AI上都能做对,那就大错特错了。

    作者对GPT系列的9个模型都做了这样的测试,发现只有GPT-3.5(davinci-003)和GPT-3(2022年1月新版,davinci-002)表现不错。

    davinci-002是GPT-3.5和ChatGPT的“老前辈”。

    平均下来,davinci-002完成了70%的任务,心智相当于7岁孩童,GPT-3.5完成了85%的意外内容任务和100%的意外转移任务(平均完成率92.5%),心智相当于9岁孩童。

    然而在BLOOM之前的几个GPT-3模型,就连5岁孩童都不如了,基本上没有表现出心智理论。

    作者认为,在GPT系列的论文中,并没有证据表明它们的作者是“有意而为之”的,换而言之,这是GPT-3.5和新版GPT-3为了完成任务,自己学习的能力。

    发明新工具还不一定,但Meta AI确实已经研究出了可以自己搞懂并学会使用工具的AI。

    LeCun转发的一篇最新论文显示,这个名叫ToolFormer的新AI,可以教自己使用计算机、数据库和搜索引擎,来改善它生成的结果。

    甚至还有人已经搬出了OpenAI CEO那句“AGI可能比任何人预料的更早来敲响我们的大门”。

    但先等等,AI真的就能通过这两个测试,表明自己具备“心智理论”了吗?

    会不会是“装出来的”?

    例如,中国科学院计算技术研究所研究员刘群看过研究后就认为:

    既然如此,GPT-3.5是如何回答出这一系列问题的?

    对此,有网友给出了自己的猜测:

    这些LLM并没有产生任何意识。它们只是在预测一个嵌入的语义空间,而这些语义空间是建立在实际有意识的人的输出之上的。

    事实上,作者本人同样在论文中给出了自己的猜测。

    如今,大语言模型变得越来越复杂,也越来越擅长生成和解读人类的语言,它逐渐产生了像心智理论一样的能力。

    但这并不意味着,GPT-3.5这样的模型就真正具备了心智理论。

    与之相反,它即使不被设计到AI系统中,也可以作为“副产品”通过训练得到。

    因此,相比探究GPT-3.5是不是真的有了心智还是像有心智,更需要反思的是这些测试本身——

    最好重新检查一下心智理论测试的有效性,以及心理学家们这数十年来依据这些测试得出的结论:

    如果AI都能在没有心智理论的情况下完成这些任务,如何人类不能像它们一样?

    属实是用AI测试的结论,反向批判心理学学术圈了(doge)。

    作者:斯坦福大学商学院组织行为学专业的副教授Michal Kosinski

    来源:量子位

    链接:晒科网

    晒科网1年前 (2023-02-16)回复

大智网汇

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 wolfba@q.com 举报,一经查实,本站将立刻删除。

投稿&软文

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续提供更多优质内容,让我们一起创建更加美好的网络世界!

微信扫一扫打赏

登录

找回密码

注册