💡 点子
记录 Bob 的零碎想法,随时补充,不限主题
🎧 360° 耳机摄像头(第一视角记录设备)
日期:2026-03-20
核心想法
做一副耳机,两侧各装一个 360° 摄像头,实时合成完整画面。用户可以"回看"自己第一视角记录的一切。
为什么不做眼镜
- 刚做完摘镜手术,戴眼镜不舒服
li>眼镜形态拍照显得怪异,社会接受度低
- 耳机本来就要戴,加摄像头增量成本低
产品形态
- 轻量化耳机 + 双侧 360° 摄像头
- 不需要屏幕,重点在"记录"而非"实时显示"
- 配合手机 App 回放/剪辑第一视角内容
- 具备麦克风,支持语音交互
核心差异化
- GoPro 是第三方视角,这个是第一视角
- 戴着耳机不突兀,拍摄行为自然
- 沉浸式第一视角记录,有独特的情感价值
技术参考
- Insta360:拼接算法消费级最强,可参考其芯片方案
- 实时拼接:瓶颈在算力,低延迟是关键
- 芯片方向:高通/苹果 AR 眼镜芯片路线
- 麦克风:骨传导麦克风已成熟
待研究
- 摄像头规格选型(消费级 360° vs 双鱼眼拼接)
- 芯片算力需求(实时拼接 vs 本地/云端处理)
- 续航与重量平衡
- 数据存储方案
- 隐私/法律问题(公共场所拍摄)
🔬 技术洞察:模型切换与工具敏感度差异
日期:2026-03-20 · 背景:修复 Beacon 重复发消息 bug 时发现
问题
Claude Code SDK 切到 Minimax M2.7 后,send_message 工具被调用两次:
- 模型主动调用 → MCP 工具发消息 → 用户收到 #1
- 模型同时输出 result → SDK 走标准路径发消息 → 用户收到 #2
根因
工具名 send_message 太模糊,语义是"发一条消息",不是"发进度通知"。
不同模型/SDK 组合对 tool result 的处理策略不同:
- Claude Code SDK + claude_code preset:知道用
<internal> 标签包裹 tool result → formatOutbound() stripping 后不发送
- Minimax M2.7 + 无 claude_code preset:没有
<internal> 抑制逻辑 → result 直接发出
Fix
- 工具改名:
send_message → send_progress_update
- 描述重写:加了 explicit anti-pattern——"不要发了 progress update 之后又在 final answer 里重复"
关键洞察:不同模型对工具名称、描述措辞的敏感度不一样。换模型不只是换个 API key,工具语义和 prompt 处理逻辑都需要跟着调。这是一个需要持续维护的跨模型适配层。
待验证
- Minimax M2.7 切换后是否还有重复发送问题
- 其他 MCP 工具(send_file、schedule_task 等)是否有类似问题
- Skill 工具在不同模型下的触发准确率差异
📖 延伸:微软研究院的发现
来源:Microsoft Research · "Tool-space interference in the MCP era"
这篇论文系统性研究了 MCP 生态里的跨模型兼容性问题,和你遇到的本质上是同一个问题:
核心现象:Tool-space Interference
- 当多个工具同时存在时,模型整体效率反而下降
- 表现为:更长的调用序列、更高的 token 消耗、更脆弱的错误恢复
- 案例:给 Magentic-One 加 GitHub MCP server 后, orchestrator 在"用浏览器还是用 MCP server 做 git 操作"之间决策瘫痪
MCP 生态的真实数据(截至论文研究时)
- Zapier MCP:30,000 工具
- 某些 MCP server 工具数超过 256 个(OpenAI 建议不超过 20 个)
- 一个工具平均返回 557,766 tokens——直接撑爆 context window
- 工具同名冲突:发现 775 个("search" 在 32 个不同 server 里出现)
各框架的应对方式
- Claude Code:给工具名前缀唯一标识符,避免同名冲突
- OpenAI Agents SDK:遇到同名工具直接报错,强制要求去重
- Anthropic 内部:用 tool testing agent 重写有问题的 MCP server prompt,效果提升 40%
论文对开发者的建议(和你现在要解决的问题直接相关)
- 给工具加 namespace 前缀(类似 Claude Code 的做法)
- 工具数量控制在 20 个以内
- 展平参数结构(嵌套太深会降低 47% 性能)
- 发布"MCP Server Card":标注这个 server 的预期 token 输出、延迟、已测试的模型
- 对工具结果做 summarization/pagination,避免 token 溢出
自动化测试的可能性
MSR 自己做了一个"MCP Interviewer"工具,自动:
- 遍历 server 的工具、prompt、资源
- 用 GPT-4.1 构建功能测试计划
- 用评分 rubric 打分
这个思路可以用来做跨模型的工具兼容性测试。