>今天的大型语言模型(LLMS)令人信服地模仿人类的对话,通常听起来很周到且聪明。 许多人认为LLM已经超过了图灵测试,令人信服地模仿了对话。 他们产生的文字看起来很有见地和情感上的细微差别。
###智力的幻觉:一个聪明的模仿
尽管这种令人印象深刻的模仿,但目前的LLM缺乏真正的思想或情感。他们的输出纯粹是统计预测 - 根据从大量数据集中学到的模式选择的east单词。与人类认知不同,这个单词的预测不包括记忆和自我反省。 该模型简单地输出下一个统计上可能的单词。
>感知:记忆,反射和情感
>使用“ sentience”作为意识和自我意识等概念的速记(承认这些术语的细微差别和持续的辩论),我们注意到一个至关重要的要求:记忆和反思。 情绪 - 令人困惑,忧虑,愤怒 - 持续存在于过去的经历和自我评估中。 这些过程在当前的LLM中不存在。
> 记忆和自我反思启用学习,适应和身份感,这是肯定的感知成分。 尽管意识的定义仍然难以捉摸,但这些要素是核心。 因此,无论LLM的明显智力如何,其缺乏记忆力和反思都排除了知觉。即使是超级智能AI(AGI)也不是有意识的。由于其无状态变压器体系结构,当前的LLM缺乏记忆和自我反射。 每个输入都是独立处理的,而无需保留以前交互中的上下文信息。 每个预测都重新处理了整个对话历史记录。 虽然像LSTMs这样的先前模型具有内存,但变形金刚的出色性能很大程度上取代了它们。 例如,LLM可能会以似乎恳求的回应来应对关闭的威胁。 但是,这仅仅是统计上可能的文本,而不是情绪状态的反映。 该模型并不是真正的压力。 同样,随后的变化会引起模仿浮雕的反应 - 根据整个对话历史记录,统计生成。 相同的输入可能会产生不同的llm的响应。
>这类似于一个小说作者创建可信的角色。作者制作了令人信服的对话,但读者了解这是虚构的。 同样,llms产生了令人信服的知觉,但它们仍然毫不动摇。
AI感知的未来:构建缺失的作品>
>我们还使用互连的AI模型看到了设计,其中一个监视另一个模型,并向另一个模型提供反馈,反映了人类大脑的互连区域(例如,杏仁核和甲状腺皮质)。 这种模块化方法可以将逻辑分析与风险评估相结合,例如。这样的与内存的互连模型可以实现灵感吗? 也许。 但是,对感知的测试仍然是一个挑战,类似于其他思想的哲学问题。 我们缺乏对他人的认识的确切测试,包括ai。
>当前,LLMs缺乏必要的成分,以确保感性。 但是,解决这些限制的设计正在出现。 AI的可能性正在从科幻小说转变为一个真实而迫切的问题。
社会含义和未解决的问题有知觉的机器将具有深远的社会意义,尤其是关于对能够遭受苦难的自我意识实体的道德义务。 避免有意义的人工智能的痛苦既是道德上的命令,也是自我保护的问题。
(作者的生物和免责声明保持不变。) 🎜>
以上是生活的幻想的详细内容。更多信息请关注PHP中文网其他相关文章!