人类未来的工作,或许就是给AI敲回车
封面配图:游戏《史丹利的寓言》。故事主角史丹利是在办公大楼内工作的 427 号员工,每天的工作内容就是按照电脑的指示不停重复按键。
首先得声明一下,这篇文章是完全基于我近期看到的现象,以及由此产生的一些思考和感悟,一字一句手打出来,完全没有使用任何 AI。
封面配图:游戏《史丹利的寓言》。故事主角史丹利是在办公大楼内工作的 427 号员工,每天的工作内容就是按照电脑的指示不停重复按键。
首先得声明一下,这篇文章是完全基于我近期看到的现象,以及由此产生的一些思考和感悟,一字一句手打出来,完全没有使用任何 AI。
原作者:Kangwook Lee
原文链接:https://x.com/Kangwook_Lee/article/2028955292025962534
对于非 codex 模型,开源版 Codex CLI 会在本地对上下文进行 compact:由一个 LLM 使用 compaction prompt 对整段对话做总结。后续再次使用这段 compact 后的上下文时,responses.create() 会连同一个用于说明这份摘要用途的 handoff prompt 一起接收它。这两个 prompt 都可以在源码中直接看到。
这篇文章想写很久了,最近终于解决了在博客中插入Echarts的问题,于是终于把它写完了。这篇文章主要是尝试对L1和L2正则化做了可视化,使用交叉熵损失函数使用基础损失函数。由于在其它地方也没有看到过类似的东西,所以觉得写一篇出来还是有点意义的。 3D可视化的图像可以帮助对损失函数,正则化的理解。并且也能直观地解释一些问题,比如为什么L1正则化会导致稀疏模型,会产生特征选择的效果。