试用了一下 1m 上下文的 opus 4.6 ,写个计划改了两三次,但之前用 200k 的 opus 4.6 基本是一次过。
是我的错觉吗?
1
laikicka 2 天前
大模型长上下文会非常容易出现幻觉.
|
2
Zy143L 2 天前
不是幻觉..越往后性能越差 1M 版本的你还是当 200K 的用吧 拆分小任务给多个会话
|
3
SingeeKing PRO 长上下文确实有性能衰减;不过 Opus 4.6 衰减的程度其实不高,相比之下 GPT 5.4 长上下文情况下甚至不配称为 SOTA 了
|
4
dockerhub 2 天前
必然的,目前不建议用 1M 上下文有几个原因
1. 上下文过长,出现幻觉(所谓的降智) 2. 上下文过长费用很高,即使缓存 0.1 倍,反复对话价格也奇高 3. 有什么任务是 200k 内不能解决的?那说明任务拆分得不够清晰 |
5
jiaduobao 2 天前
感觉最近 opus 4.6 降智了,但 gpt-5.3-codex(high) 反而变聪明了。顺便推广中转注册送 10 美元,可以对接 cc switch 测试看看官网地址: https://ai.17nas.com/
|
6
iomect 1 天前 via iPhone
长上下文后面一定会出现注意力问题 无解的
|
7
beyondstars 1 天前
不要真把 AI 当作一个你的副驾驶或者知心朋友,每次对话的上下文不应该看作是“记忆”,而是一次和之前没有任何关系的全新的输入,就着这个思路,每个定义明确的子任务单开一个对话是合适的,用完即弃。
一般来说,在某次回复中,你觉得模型给你的回复已经有点离谱了,不要试图去就正它,因为上下文已经过大了,只会越纠正越差,这时就要果断新开一个对话。 |
8
layxy 1 天前
长上下文会导致注意力分散,目前来看暂时无解,只能使用小上下文聚焦某个问题
|
9
mingl0280 1 天前
200k context 都有性能衰减了,更别提 1M 了
|
10
memcache 1 天前
我只是感觉 1M 的上下文很贵
|
11
sampeng 1 天前
升级完 claude code 。。只有 1m 选项就无语了。。
|
12
milkleeeeee OP @sampeng 不对吧,我的 claude code 版本是最新的 2.1.76 ,用 /model 是可以选择 Opus 或 Opus (1M context) 的
|
13
TArysiyehua 1 天前
上下文不是越长越好,并不是说上下文足够长 AI 就会非常智能
|
14
sampeng 12 小时 14 分钟前
@milkleeeeee 最新是 2.1.77
|
15
milkleeeeee OP @sampeng 2.1.77 是 3 个小时前发布的,昨天我回复的时候最新版确实是 2.1.76 ,并且我能正常用 /model 选择。我用的是第三方中转站,不知道是不是跟这个有关
|
16
sampeng 9 小时 25 分钟前 via iPhone
@milkleeeeee 第三方中转站的问题,我昨天早上更新的
|