Human Prompts AI - The Art of Communication in the Age of AI
Last Update:
Word Count: 3.6k
Read Time: 12min
人类 提示词 AI ?人类提示AI ?
Intro
总得有个头吧。
三月八日子时,偶与友人闲聊,始于新建项目 https://github.com/Esonhugh/pydoll-cf-waf-bypasser-skills ,恰逢 OpenClaw 流传于大街小巷。遂谈及大语言模型和人类本源。有所感,有所想,故行文一篇,增旁人笑耳。
让我们说中文。
我其实一直被 AI 的进步所吸引,,从一开始包括提示词工程 RAG MCP 服务 AGENT Skills 或是爆火的 openclaw 。
什么是在 AI 时代,人最重要的能力?
我认为,如果你想深入与 AI 相伴并解决现实问题,或进行创造,或需要突破,这三点你一定会需要,而且几乎缺一不可。
其一:灵感 提问 探索
初遇 AI:从无措到启程
许多人初次接触 AI 时,往往陷入第一种困境:明知眼前是一个强大的工具,却不知从何下手。即便听闻他人用 AI 做出种种精彩之事,自己面对空白的对话框,依然一片茫然。这种”有能力却无处施展”的状态,让许多宝贵的接触机会悄然流逝——一次、两次、多次重复后,人与 AI 便失之交臂。
这一困境的根源,并非技术门槛,而是认知起点的缺失——没有问题,便没有对话;没有对话,便没有探索。
第一枚骰子:问题的诞生
解决之道其实最为朴素:静下心,将 AI 视作一个对话者,在对话框中写下第一句话。
这看似简单,却蕴含着深刻的认知逻辑。AI 本质上是一个响应式系统——它需要输入才能产生输出,需要问题才能给出答案。用更直白的话说,AI 就像一个概率模型构建的”骰子小人”,但你若不给它投掷的机会,它便永远静止。第一句话,必须由你说出。
当第一个问题被抛出的那一刻,探索便正式启动。如同婴儿初临世界,对一切浑然不知,却通过触碰、观察、提问,逐步构建起对世界的认知图景。与 AI 的对话,亦是如此——从第一个问题开始,认知的边界开始向外延展。
灵感的本质:问题的涌现
在问题与答案的交替中,一个关键事实逐渐清晰:
AI 擅长回答,而人类擅长提问。
然而,第一个问题从何而来?驱动人类持续使用 AI 的原动力究竟是什么?
答案是:灵感。
灵感并非凭空降临,它往往萌发于一种微妙的认知张力——
“我遇到了一个问题……”
“AI 能帮我解决吗?”
“AI 能给我一个更好的解决方案吗?”
这些看似简单的疑问背后,是人类独有的认知活动:定义问题、建立关联、构想可能。正是在这一刻,人类开始”下定义”——界定问题的边界;开始”联想”——连接已知与未知;开始”委托任务”——向 AI 表达意图。
从问题到探索:认知的螺旋
灵感的价值,不仅在于触发第一个问题,更在于催生后续的问题链。每一次对话,都是问题的孵化器——
问题 A → AI 回答 → 启发 → 问题 B → AI 回答 → 启发 → 问题 C → ……
这一过程,构成了认知的螺旋上升。人类提出问题,AI 提供答案;答案引发新思,新思催生新问。灵感,便是这一螺旋的初始推动力。
核心洞见
| 人类能力 | AI 能力 |
|---|---|
| 提出问题 | 回答问题 |
| 定义问题 | 解决问题 |
| 产生灵感 | 执行任务 |
第一枚骰子,必须由人类投掷。而这枚骰子的名字,叫做”问题”。
其二:环境 思考 表达
表达的本质:思维的外化,环境的内化。
许多人在与 AI 协作时存在一个误区:认为表达仅仅是”说出想法”。然而,真正的表达远不止于此——表达是思维的完成形式,是认知从混沌走向清晰的过程。
当一个人无法清晰表达某个想法时,往往不是因为”嘴笨”,而是因为思维本身尚未成型。模糊的表达,映射的是模糊的思考;歧义的描述,暴露的是认知的断层。
说不清楚,往往意味着没想清楚。
很多人一开始遇到的第二个误区,那就是问一个很宽泛很宽泛的问题,例如,帮我想想今天吃什么,或者,帮我完成这项代码。
其实你也不知道今天要吃什么最后会吃什么,或者你知道这个代码是什么,代码完成后的功能是什么,但是你的代码和上下文空无一物。这会使得 AI 在回答的时候也更会泛泛而谈不知所云,甚至你会觉得他不过如此,或者气的想大骂他傻逼。其实你有没有考虑过。。。 :)
不是 哥们 他是大语言模型,你和他有什么好急的?
我真觉得如果一个人无法和 AI 正确的沟通,那你和他交朋友一定也会倍感挫败。
精确的力量,其实是对抗概率的偏差
与 AI 对话,本质上是一种”概率博弈”。AI 作为概率模型,其输出质量高度依赖于输入的精确程度。一个模糊的问题,会触发模糊的回答;一个歧义的描述,会引发偏离的响应。
这形成了一个残酷的死亡循环:
模糊的思考→ 模糊的表达 → AI 理解偏差 → 输出偏离预期 → 需要多次纠正 → 效率损耗
这常见于第三个误区,Enter 猴子,一个只会按按钮的猴子,不停的让模型继续运行,但是与此同时不给出任何提示。然后我们便会得到一个不可名状极其抽象的结果,甚至人都无法理解。
更深层的问题在于:当表达存在歧义时,AI 的概率模型会放大这一偏差。一个细微的措辞不当,可能导致整段对话走向错误的方向。正如古老的格言所言:
失之毫厘,谬以千里。
如果你从错开始,后面无论路径推理如何正确,那最后便都是错误。
表达的三重境界
| 境界 | 特征 | 示例 | AI 理解度 |
|---|---|---|---|
| 第一重:模糊 | 意图不清,范围宽泛 | “帮我写个东西” | 极低 |
| 第二重:清晰 | 意图明确,结构完整 | “帮我写一篇关于 AI 的文章,500字” | 中等 |
| 第三重:精确 | 细节完备,边界清晰 | “写一篇面向技术人员的 AI 入门文章,重点介绍 Transformer 架构,使用比喻解释,控制在500字以内” | 极高 |
从模糊到精确,不仅是表达能力的提升,更是思维质量的跃迁。
在写提示词或者各种 MD 的时候,我其实非常关注,表达出 “ 我想要什么?“, “在什么情境下?”,“为什么”,“你需要思考的范围是什么”,“结果应该如何被检验,怎样才算达到目的”。
当然,对 AI 来说,他们也需要人,很多时候如果在某些问题上人类拥有知识,并且可以提供给 AI ,那么这将会是更好的帮助 AI 生成合适且优秀的内容,这其实就是一种环境的内化:为 AI 构建认知基础。精确表达不仅是”说清楚想要什么”,更是”为 AI 构建一个可理解的认知环境”。 对 AI 而言没有你的背景知识、工作语境、项目历史。它只知道你告诉它的内容。因此,表达的过程,本质上是将你脑中的”环境”内化到对话中的过程。
其三: 学习 逻辑 判断
我和朋友讨论比较激烈的是这样一个问题,如果 AI 拥有极强的学习能力,那么是否人类就可以没有这种能力。
朋友所执观点,例如:如果人类可以没有,那么当你踏入一个未知的领域,如果 AI 乱说一通,我们其实没办法辨别是真是假,甚至我们可能会被模型误导,从而陷入非常危险的境地。
而我则作为他的反面:如果人类需要有学习能力,但是我们其实又学不过 AI ,或者如果你继续学习,其实干一小时可能并不如 AI 干十分钟的,从效率上说,学习能力和你原本拥有的技能,能发挥的能力其实是越来越有限的。
上面这两段对话其实很极端,但是都没错。我们在这里其实存在一个问题,就是将学习能力泛化了。在这里学习能力其实应该分为两种能力。前者是知识判断能力,后者是知识获取能力。
知识获取能力是其实是,我知道答案,我会积累知识,执行记忆,理解,应用。
知识判断的能力其实是,我能判断答案对错,我可以质疑,提问,进行重整。
在 AI 大爆炸的时代,对人类来说 肯定不是 “学得越多越好”,而是建立足够判断 AI 输出的”认知锚点”。
认知锚点:在某个领域内,人类所掌握的核心概念、相关的基本逻辑和关键判断标准,使其能够评估 AI 输出的可信度。
首先,我们需要理解核心概念和术语 ,至少需要可以判断 AI 是否”说人话” ,总不能真听着 “意大利面需要搅拌 42 号混凝土” 就还能继续对话下去吧。如果发现 AI 和我们认知上的不一致,要么你改变它,要么它说服你,在反复对话对某些概念进行深度描述之后,从而实现基本的认知上的对齐。当然最重要的其实是,我们会说人话,当然这正是上一章的内容。
既然说到说服和说人话,我们需要掌握基本推理和因果关系 ,从而判断 AI 的逻辑是否自洽。我们需要能够通过理解 AI 的思考推理过程,来进行正向或反向思考,查看是否可以从这一部分到另一部分。在部分过程中,我们可以发挥人类的权力,审问 AI ,为什么,凭什么。通过反复的质问,从而触及该过程的全部逻辑,直到可以说通整个过程。
正如我很喜欢的提示词,展示你的 xxx 部分思考过程,解释为什么可以 xxx 到 yyy。或者,展示你的数据来源,重新解释为什么可以 xxx 到 yyy。
当然上面两点,也正是一些使用 AI 的朋友在文章中反复说明和提及的东西 https://mp.weixin.qq.com/s/3_CpsDPOLbXoKkZU3vDHLw
最后的判断,便是达到目的的判断。这就非常简单了,对于 Code Agent 来说,最后就是行之有效的代码。对于安全研究来说,或许是什么漏洞的利用或原理的说明。这些就因任务而异了。
说回到学习,既然答案不是非黑即白的,那么有没有一种可能,我们可以通过 AI 进行伴生学习,我认为这是一种某种学习的最高境界。
对我们来说想要解决实际问题或掌握相关的知识,和 AI 一起学习无疑是最快的,你其实不需要成为每个领域的专家,但要在每个需要协作的领域中攒到足够的”认知锚点”。这无疑本应该是“教育”行业应该本质上带给学生的。但确实是在应试教育中有所缺位的。
在这里,我并不想分析应试教育与分数导向导致的,结果与过程的偏差。
对于个人而言学习新的领域,其实就是这样的一个过程,先学习部分概念,然后实操驱动或者问题导向,再实践中学会到该过程之后,在足够的样本下,理解然后获得相关的逻辑判断能力和信息可信度判断。 AI 可以很好的强化很多的关键节点,例如,搜索资料和信息,快速获取并且理解基本概念,循序渐进的反问模式或者问题推动的研究,例如,苏格拉底式提示词,在完成很多实践,摸清楚运作规律之后,便会产生对应的判断力认知,甚至是部分直觉一样的东西,然后再次重复该过程,向高深的知识进攻。
所以,学习的目的不是”比 AI 懂得多”,而是”能判断 AI 是否懂对了”。认知锚点,是人类在 AI 时代的认知防线。伴生学习,是人机协同进化的最优路径。通过实践建立判断,通过判断形成直觉,通过直觉拓展边界,这便有了回到了第一章灵感。
回望始终
灵感,是投掷第一枚骰子的勇气——没有问题,便没有对话。表达,是搭建认知桥梁的技艺——模糊的输入,只能得到模糊的输出。判断,是守卫认知防线的责任——不是比 AI 懂得多,而是能判断 AI 是否懂对了。
AI 是引擎,人类是方向盘。引擎提供动力,方向盘决定方向。动力可以无限,但方向只能有一个。
那个选择方向的人——
那个喊 Action 的人——
那个按下按钮的人——
只能是你。
这便是人之本源。也是人与 AI 最不同的一点,我们以提示词和语言为媒介进行沟通,这里也是全文的起点与终点。