不会言模型的向思致命总学盲区为考大语反什么
最近在AI圈里流传着一个让人啼笑皆非的现象:我让GPT-3和Llama学习"张三就是李四"这样简单的知识,结果当反过来问"李四是谁"时,AI竟然一脸茫然。这就像你教孩子"妈妈叫王芳",然后问"王芳是谁",孩子却完全不知道答案一样荒谬。 研究人员给这个现象起了个很有噱头的名字——"逆转诅咒"(Reversal Curse)。简单来说,就是大语言模型在学会"A是B"后,竟然无法自然而然地反向推导出"B是A"。这不禁让人怀疑:我们天天夸AI聪明,结果它连最基本的逻辑对称性都搞不定? 举个例子,当我用"汤姆・克鲁斯的母亲是Mary Lee Pfeiffer"训练AI后,AI可以顺利回答"汤姆・克鲁斯的母亲是谁",但当我问"Mary Lee Pfeiffer的儿子是谁"时,AI就傻眼了。这就像一个人能记住"北京是中国的首都",却不知道"中国的首都是北京"一样离谱。 说起来挺讽刺的,这些花费数亿美元训练的大模型,在学习简单逻辑关系时表现得像个固执的孩子。研究人员测试了从GPT-3到Llama的各种模型,发现它们全都"中招"了。更扎心的是,这个问题与模型规模、训练数据量都没有明显关系。 我个人觉得,这可能暴露了大语言模型一个本质缺陷——它们其实并不真正"理解"知识,只是在玩概率游戏。就像背课文一样,只记住了"从前有座山"的下文是"山上有座庙",但如果反过来问"庙在哪座山上",就完全摸不着头脑了。 为了验证这个问题,研究人员做了个很有意思的实验:用虚构的名人和作品关系来训练AI。比如"Daphne Barrington是《穿越时空》的导演",训练后的AI可以准确回答"Daphne Barrington是谁",但当问"谁导演了《穿越时空》"时,准确率直接归零。 更有意思的是,在名人亲子关系的测试中,GPT-4能正确识别79%的名人父母,但反过来识别父母对应的子女时,准确率暴跌到33%。这不禁让人怀疑:AI是不是也患上了"脸盲症"? 目前学界还没有定论,但有几个可能的解释: 1. 训练机制问题:大模型在训练时只考虑单向预测,没有强制建立双向关联。就像我们背单词时只记"apple-苹果",没练习"苹果-apple"一样。 2. 知识存储方式:AI的知识可能是"碎片化"存储的,缺乏人类那种网状关联的记忆结构。 3. 概率思维局限:大模型更擅长计算"看到A后出现B的概率",而非建立"A和B互为因果"的逻辑关系。 OpenAI的科学家Andrej Karpathy说得一针见血:"LLM学到的知识比我们想象的零散得多。"这让我想起小时候玩的拼图游戏——AI似乎只能按固定方向拼图,转个角度就认不出来了。 这个发现给如火如荼的AI热潮浇了盆冷水。它提醒我们: - 大模型可能远没有达到真正的"智能"水平 - 当前的训练方式存在系统性缺陷 - 简单增加模型规模未必能解决根本问题 不过话说回来,这个"逆转诅咒"也让我们重新思考:人类的学习方式中,哪些是AI尚未掌握的精华?也许未来的突破点不在于更大的数据集,而在于如何让AI真正"理解"知识的双向关系。 这就像教孩子学习时,我们不会只让ta死记硬背,而是会通过反复提问、换位思考来建立完整的认知框架。或许,AI也需要类似的教学方法?什么是"逆转诅咒"?
问题到底出在哪里?
实际测试结果令人忧心
为什么会出现这种现象?
这对AI发展意味着什么?
- 最近发表
- 随机阅读
-
- 10.30行情速递:BTC/ETH能否延续涨势?
- Messari主网峰会的10个深刻启示:寒冬中的加密曙光
- Impactopia创始人Aurora DUAN:用科技重新定义慈善的未来
- 加密寒冬真的过去了吗?资深交易员揭示比特币未来走势
- WHO代币:Wormhole生态系统的活力之源
- 币圈大佬的财富收割术:当韭菜遇上李笑来的2亿美元教训
- Solana蓄势待发:这个黄金交叉信号意味着什么?
- 疯狂行情!我们精准做空比特币赚翻了
- 加密寒冬持续肆虐:这些明星项目为何纷纷倒下?
- ChatGPT迎来重大变革:一周内三次突破性升级让AI变得更智能
- SEC连遭司法滑铁卢:美国监管体系正在自我纠偏?
- 教育不是百米冲刺,而是马拉松:致学总裁吴民升谈教育的慢智慧
- 市场观察:比特币周线强势延续背后的投资智慧
- 从南非书呆子到DeFi教父:Andre Cronje的传奇逆袭
- 传统银行业的数字化突围:区块链如何重塑金融安全新格局
- 香港虚拟资产牌照申请大揭秘:四家实力派交易所浮出水面
- 市场迷思:当欲望遇见纪律,交易才能开花结果
- OP持续走强背后的秘密:一场即将爆发的技术革命
- 一只Web3胖企鹅的零售革命:Pudgy Penguins如何打动沃尔玛?
- SeeDAO:一场关于数字文明的社会实验
- 搜索
-