现在人工智能就业市场两极分化严重 一边是年薪四十万美元都招不到人 另一边是很多人投简历却石沉大海 关键在于你是否掌握了市场真正需要的七项核心AI技能
“这是一个能自己书写剧本的时代 因为市场对这些技能求贤若渴”
“AI经常是自信满满地犯错 错得那叫一个流利顺畅”
“你不能把AI的流畅表达 误认为是它的能力或正确性”
因此,目前人工智能领域的职位实际上是无限的。不是需求增长,不是热门行业,这些说法都不对。它实际上是无限的。这一点对于雇佣10到20人的企业来说如此,对于雇佣数十万人的企业来说同样如此。
在人工智能人才方面,雇主们渴望拥有的顶尖人才并无实际数量上限,但他们却难以寻觅。经过数百次针对特定职位的面试后,我不断听到雇主们表示:我们无法填补这些职位空缺。
我听到你说:“内特,那一定是谎言。我已经申请了数百个AI职位。我擅长AI,但就是不行。”我明白。我们现在正处于一个K型就业市场。
雇主们的需求存在分歧,这种分歧使得问题变得复杂,因为许多对人工智能了解不深的雇主正利用这一情况,他们基本上是把简历当作学习工具,然后通过面试从人才那里了解他们需要什么,这真的很糟糕,对吧?你不应该这样与人才互动。
它无法与人才互动,无法将最优秀的人才吸引到你身边,反而给所有人留下糟糕的印象。同时,也有许多人正在寻找职位,他们要么夸大自己的能力,要么缺乏在人工智能领域蓬勃发展所需的实际技能。
我不是在谈论如何在AI领域蓬勃发展。我不是在谈论如何在AI领域蓬勃发展。我不是在谈论能否与AI聊天,对吧?能否与AI聊天,对吧?能否与AI聊天,对吧?
在本视频中,我将分享七项具体技能组合,这些是我通过分析数百份真实的人工智能职位招聘信息,并深入挖掘构成这些核心技能的底层子技能所提炼出来的。不仅如此,我还将更进一步进行解析。
我不仅要谈技能组合,更要深入探讨如何培养这些技能。我将在Substack上发布一份指南,切实帮助大家掌握这些能力。不仅如此,我还将推出together招聘计划,将这一理念推向更广阔的实践层面。
我打算设立一个专门的招聘板块,因为我觉得目前将AI人才和AI招聘经理与其他职位混在一起确实非常混乱。这样一来,你浏览所有产品经理职位时,很难分辨哪些是AI产品经理的岗位。
哪些是那些徒有其名的AIPM职位,那些只是挂名AI但实际上并非如此的工作。我们嘴上说着AI,却并非真心实意。我正努力改变这一现状,因为我认为是时候为招聘带来一些简化了。招聘本不必如此艰难。好的,在深入探讨之前。
好的,在深入探讨之前,我们先来仔细看看当前就业市场的真实情况。从根本上说,人工智能领域的劳动力市场实际上是两个朝相反方向发展的市场。我所说的K型分化,是认真的。市场一指的是传统的知识型工作岗位,对吧?就是那些……
知识型工作角色,对吧?自2010年代以来我们所学到的一切,通才型产品经理、标准通才型产品经理、标准软件工程师、传统软件工程师、常规业务分析师。没有其他业务分析师,也没有其他说法。我相信你并不惊讶职位空缺数量持平或下降。它没有增长,因为……
它之所以没有增长,并非因为上升或下降。原因在于,大部分投资、绝大多数投资都流向了人工智能领域,企业正借此谋求发展。这是市场的另一面,即那些设计、构建、运营和管理人工智能系统的岗位。这一领域正在快速增长。事实上,我一直在推动其发展。
事实上,我在科技领域摸爬滚打已有数十年,从未见过像AI这类职位如此炙手可热。目前,AI岗位与AI人才的比例高达3.2比1。换言之,眼下每个合格的候选人平均对应着三个以上的AI职位空缺。
他们现在可以主导候选人市场。他们可以主导候选人市场。他们可以自主定价,并且确实这么做了。如果你想知道具体数字,这是来自万宝盛华集团的一项调查,该调查发现有160万个职位空缺,我认为这个数字偏低,而符合条件的申请人仅有约50万,我认为这个数字相当合理。这导致了招聘周期变得非常漫长。
这导致了一个非常漫长的招聘过程。填补一个职位需要很长时间,需要142天才能填补一个AI职位,这几乎是半年的时间。所以,当我说这个市场存在时,那些告诉我我在夸大其词的人,我理解。如果你不在那半年里,你可能会觉得难以置信。
如果你不属于那五十万精英之列,确实会感到前路渺茫,因为就业市场的其余部分正日益同质化。但若你身处另一阵营,便能领悟其中真谛——这是一个能自主书写人生剧本的时代,因为市场对这些技能求贤若渴。
人们迫切需要这些技能。那么闲话少说,我不想再赘述了。让我们直接进入正题,看看这些技能究竟是什么。我希望这能成为最核心的内容。
我希望这个视频能成为关于这些技能最有用的指南,因为我制作前查阅了所有AI课程,心想肯定有人已经基于AI招聘信息做过实证分析,逆向拆解并分解了所需能力。
将其分解为子技能,并针对子技能进行详细说明,同时明确指出雇主正在招聘的具体要求。这是一种可以学习的技能。顺便提一下,这比其他信息技术革命更具挑战性。如果你觉得这很难,
如果你觉得这很难,回想一下在20世纪80年代,如果你想买一台个人电脑来学习编程,你得花掉相当于今天15000到16000美元的钱。那简直是贵得离谱,完全被你的经济能力所限制。而现在,情况已经变得容易多了。
现在,情况已经变得容易得多。几乎任何人只要愿意,都能获得AI订阅服务。AI确实能帮助你学习。我们可以做到这一点。我们将从最根本的转变开始,人们有时称之为"提示"。我已经多次讨论过提示的重要性。
我想使用一个在招聘启事中越来越常见的术语,那就是“意图的规范精确性或清晰度”。你必须学会以机器能按字面理解的方式与机器交流英语。我们习惯于与能读懂言外之意的人类共事。
我们习惯于与能够读懂言外之意的人类合作。我们习惯于与那些能够相当可靠地推断我们意图的人类共事。我们知道通用智能尚未真正到来的原因之一,就是智能体在这方面做得还不够好。智能体需要我们给出明确的指令。智能体将会严格按照指令执行。
代理将根据你提供的任何规格、任何规格、任何规格去构建某个东西。如果你去构建某个东西,如果你去构建某个东西,如果你不清楚那是什么,代理不清楚那是什么,代理不清楚那是什么,代理会尽力填补空白,但这并不能可靠地、可靠地、可靠地重现你的意图。代理不擅长填补空白。是的,我是在填补空白。
是的,我正在填补空白。是的,我将给你一个具体的例子。一个具体的例子。一个具体的例子。假设你正在努力改进客户支持,但你没有给首席工程师一个任务,说:“嘿,想出一个关于客户支持的解决方案。你已经看过工单了。”我们不会那样做。
"我们不会那样含糊其辞。"我们要明确表达在提示中关注的重点,向代理清晰传达我们的需求。这正是招聘者所寻求的区别所在。你需要能够告诉代理:"我希望你构建一个能够处理一级工单的代理。"
我希望你能处理一级工单。我希望你能处理密码重置。我希望你能处理订单状态查询。我希望你能处理退货申请。我希望你能根据客户情绪判断何时需要转接人工服务。
我想在这些文档中为你定义客户情绪,让你知道如何衡量它、如何评分,并适当地进行升级。我希望你记录每一次升级,并附上原因代码。你在这里有相同的意图,但请注意这有多么具体。
你注意到了吗?这要求多么具体。这就是2026年提示工程的门槛标准。你必须能够如此清晰地表达你的意图。如果你是一名技术文档工程师、律师或质量保证工程师,这一切都会让你感到无比熟悉,因为你之前已经做过类似的技术写作工作。
这种技术写作对许多人来说是一种新技能,但绝对可以学会。关键在于详细理解你想要表达的内容。
我特意按这个顺序排列,特意按这个顺序排列,特意按这个顺序排列,因为这正是你凭直觉学习的顺序,这正是你凭直觉学习的顺序,这正是你凭直觉学习的顺序。我,我,我按照一个对你来说合理的顺序来排列,按照一个对你来说合理的顺序来排列,按照一个对你来说合理的顺序来排列。一旦你明确了你的需求,一旦你明确了你的需求,一旦你明确了你的需求。
一旦你明确了自己想要什么,紧接着就会遇到下一个问题:你做得对吗?你得到想要的了吗?我们称之为评估与质量判断。这是我在所有招聘启事中看到的最常被提及的技能。
我见过的招聘信息中并没有明确提到这一点。我不确定所有雇主是否都理解这个概念。我打算在这里给出一个非常清晰的定义。顺便提一下,这个概念在工程类职位、运维职位以及产品经理职位的招聘中都有所体现。人们常说要具备agentic评估思维,无论那具体意味着什么。
他们的心态,不管那意味着什么。他们希望你能够进行自动化评估和模拟运行等等。Upwork上的招聘信息要求具备功能性任务和长期指标的评估框架,对吧?他们讨论的是建立测试AI表现是否良好的方法。
每一次关于AI是否表现良好的讨论,每一次关于AI是否表现良好的讨论,每一次的发布都会使用略有不同的措辞,但归根结底,关键在于能否构建出能够编码评估和质量判断的系统。而这正是所有关于品味的讨论所围绕的核心。它只是被包装成了技能语言。
用技能语言来包装。我确实理解为何人们会抗拒品味这一说法,因为一旦将其归为品味问题,就显得模糊不清、难以付诸行动,并且容易助长自我膨胀。但实际上,我们讨论的是在流畅度基础上的错误识别能力。
人工智能的流畅度确实大相径庭。人工智能的失误模式与人类的失误模式截然不同。人工智能常常自信满满地犯错,错得流利顺畅。而人类犯错时,往往会磕磕绊绊,有所迟疑。
我们习惯于在他人身上听到和看到的许多迹象,在人工智能身上并不存在。因此,如果我们不习惯与人工智能打交道,可能会错误地认为它那自信的回答就是真实、正确和准确的。
顺便说一句,我经常看到这种情况。如果你认为这不会发生,我亲眼见过在真实的演示中,人们会说:“嗯,AI呈现的内容看起来没问题,瞧,它包含了所有正确的标题和这个那个。”而我的反应是:“是啊,但要用……”
"然后我说,'没错,但得用点批判性思维。这根本不是什么批判性思维。这根本不是什么批判性思维。这实际上并不正确。我才不管它有多正确。我才不管它有多正确。我才不管AI表现得多么自信。' 关键在于,AI表现得多么自信。' 关键在于,AI表现得多么自信。' 关键在于抵制那种将AI的流畅表达误认为能力或正确性的诱惑。抵制那种将AI的流畅表达误认为能力或正确性的诱惑。抵制那种将AI的流畅表达误认为能力或正确性的诱惑。事实并非如此。这里的另一个子技能是,事实并非如此。这里的另一个子技能是,事实并非如此。这里的另一个子技能是我所说的边缘案例检测。"
你可以进行所谓的边缘情况检测。当你能审视AI的回应并指出其核心正确但边缘情况有误时,就表明你对某个主题有着深刻的理解。我认为anthropic的情况正是如此。
我认为T068的工程博客在解释这种品味实际上是一种可习得的技能方面做得非常出色。他们指出,一个好的评估任务应当这样设计:当多名工程师审视该评估任务时,他们能对过去的失败案例得出相同的结论。
总而言之,基于过往的失败经验,我们可以得出这样的结论:优秀的评价标准是大家都能认同的,并且我们都能学会如何撰写。无论你是编辑还是审计员,这些正是你时刻在运用的技能,只不过现在是以新的方式加以应用。如果你尚未掌握,这便是提升的关键所在。
如果你不是,这就是黄金法则。如果你不是,这就是黄金标准技能。这里的第二个技能,标准技能。这里的第二个技能,标准技能。这里的第二个技能,这是被提及最多的一个,无论我们头衔中是否有工程师,我们都必须掌握它。确实,无论我们头衔中是否有工程师。
实际上,掌握这项技能最好且最简单的方法,就是开始像对待署有自己名字的作品一样审视AI输出。要用心对待,坚持要求其准确无误,确保其正确性。随着你开始构建系统——这是一项可以学习的技能,我们后续会深入探讨。
你应该能够构建进入。你应该能够构建进入。你应该能够以某种方式构建它们,以便你能够嗅探它们,最终嗅探出质量。并且最终说出质量。并且最终说出质量。
说到多智能体系统,我们来谈谈构建这些复杂多智能体系统需要哪些技能,因为人们有时会觉得这像一道无法跨越的鸿沟。
就像有人告诉我可以用聊天功能,我甚至可以用云端代码,但当你提到多实体,比如从发根开始变白,对吧?这并不容易,实际上比想象中要难。从根本上说,
从根本上说,与多个智能体协作的能力,就是任务分解与委派的能力。这是一种管理技能,你可以通过学习掌握。关键在于能够将工作拆解为可管理的模块,这正是理解工作如何有效运行的一部分。
然后你就能明白什么方法是有效的。接着,你可以将这一点与你正在学习的其他技能相结合,比如明确需求、撰写评估报告,以确保真正达成目标。现在,如果你觉得这听起来像是常规的项目管理,那并非如此。智能体的工作方式与人类截然不同。
智能体需要人类给予非常明确的指导。智能体需要非常明确的防护栏和基础设施才能正常工作。你可以给一个六人团队分配一组在人类看来定义相当模糊的任务,他们依然能够解决。作为工作者,我们通常具有一定的灵活性。
你不能用代理来做那件事。你必须非常明确地设定目标,非常非常明确地设定目标,非常非常明确地设定目标,非常明确地阐明你的初始意图,明确阐明你的初始意图,明确阐明你的初始意图,非常清晰地定义你希望一个多代理系统如何运行。而且实现它的方法并不多。目前实现它的方法并不多。
当前的最佳实践是设立一个规划代理,它负责记录任务,并能与各类子代理协作完成这些任务。如果你曾将大型项目拆分为多个工作流,请放心,这正是一项关键技能。
这是一种可迁移的技能,因为你真正在思考逻辑划分——这个工作流程中有哪些模块,我们如何交接?这是你可以掌握的能力。
你可以学习与AI协作,AI也能学会与其他AI协作,当你着手构建更大的项目时,AI能为你提供助力。当前这项技能中最引人注目的分支之一,便是准确判断一个项目是否适合我所拥有的agentic框架。我已为此录制了相关视频。
我上传过视频讨论这个话题。核心观点是,你必须根据自己拥有的agentic装备来规划工作规模。如果你配备了agentic装备,就必须以此为基础进行考量。
如果你有一个单线程代理框架,它本质上被设计成电脑里为你工作的小工程师,你就必须调整任务规模并将其分解,以适应那个工程师的框架。如果你有一个多代理系统。
如果你有一个多智能体系统,其中包含一个长期运行的规划智能体,并且该智能体拥有子智能体,那么你能够灵活定义更大型的任务,但仍需明确子任务及其逻辑关系,以便规划智能体能够做出合理决策。
规划者能够做出明智的选择。因此,我在此大声强调这一点,你可能会想:“哦,这并不难。”我向你保证,这确实有难度,它技术性强,但也是可以学习的,并且人们会为此付费。
这是全世界人们都极度渴求的东西。你可能会觉得,这听起来非常困难,这些代理系统很可能会失败。这引出了下一个关键技能——失败模式识别,它在许多领域都至关重要。
它在许多至关重要的领域显现出来。这些招聘信息中频繁出现,因为当雇主列出这些技能时,他们意识到什么?哇,原来并不像我想的那么简单,对吧?我们有多种方式可能导致代理失败。
我需要一个能从根本上诊断问题的人,一个能从根本上诊断问题的人,一个能从根本上诊断问题的人,修复它,让我恢复高效状态。是的,如果你在好奇,如果你在好奇,如果你在好奇我是否会详细说明,你猜对了。因为说实话,因为说实话,因为说实话,失败模式的识别并不广为人知。人们往往对此知之甚少。
人们往往对此理解不深。人们常常会说:“嗯,失败是什么?”我要告诉你,我深入研究过。我也见证过这些失败。以下是六种常见的失败类型。情境退化是其中之一,对吧?质量下降也是其中之一。
随着会话时间的延长,质量会下降,因为你在污染上下文窗口。另一个问题是规范漂移。在长时间的任务中,代理实际上会忘记规范,除非你正确构建代理约束机制,并强制提醒代理记住规范。
被强制提醒了规范。被强制提醒了规范。你在拉尔夫循环中看到的许多内容,在Claude上疯传的许多内容,都是对规范的强制提醒。阿谀奉承的确认是另一个例子。那就是确认。
这就是代理实际确认错误数据的地方,然后返回并围绕这些数据构建整个错误的系统。你必须留意输入这些代理的数据。它们会认真对待这些数据,会据此进行确认,并系统性地认同它。
如果你盲目地赞同它。如果你盲目地赞同它。如果你向他们提供糟糕的公司数据,向他们提供糟糕的公司数据,向他们提供糟糕的公司数据,那么你将得到糟糕的系统。工具选择错误是另一个问题。工具选择错误是另一个问题。工具选择错误是另一个问题。工具选择错误是痛苦的。所以,选择错误是痛苦的。所以,选择错误是痛苦的。
所以这是一个关于代理人选错工具的情况,无论任务是否完成,这工具本就不该被选用。
这种情况尤其常见,当你在系统提示中错误地设定工具,或者没有以正确的方式在工具框架中提供它们,或者工具数量过多、内容过长时。工具很可能就是导致问题的原因。
工具这个话题或许值得深入探讨,但在此我想指出,能够诊断工具问题,是衡量一个人是否精通人工智能的标志之一。
我之所以知道这一点,部分原因在于最近推出的Claude认证架构师项目,该项目专门针对这种故障模式进行测试,因为这对于构建可持续的agentic系统至关重要。如果你在想,什么是Claude认证架构师?
什么是T121认证架构师?这不算什么。埃森哲正在大规模推广这项认证,面向数十万人。很快,它就会像AWS认证一样普及,每个人都将需要它。这里还有一个失败案例:连锁故障率。一个代理的失败会在整个链条中传播。
你从未在链条中传播。你从未有过修正机制,而现在你有了修正机制,而现在你有了修正机制,而现在整个运行都失败了。整个运行都失败了。整个运行都失败了。如果你在适当的位置加入循环和验证,这是可以修正的。这是可以修正的。这是可以修正的。我把最危险的失败留到了最后。它被称为无声失败。它被称为无声失败。它被称为无声失败。
这是指智能体产生了一个看似合理的输出,表面上看起来正确,但实际上出现了问题,导致实际结果在生产环境中不可接受。
这些情况很难提前诊断,一旦发现,也很难追根溯源,因为在大多数衡量标准下,它们看起来与正确的输出几乎一模一样。我来举个例子,假设你正在尝试……
假设你正试图向一位顾客推荐一款特定产品——棕色皮靴,而AI系统反馈说它推荐的是棕色皮靴,但顾客对此不满并留下了一条差评,这说明过程中出现了问题。
你回头查看,确认聊天记录里提到的是棕色皮靴。这看起来是正确的。元数据也显示无误。
产品元数据标注为棕色皮靴,而实际产品信息也显示为棕色皮靴,但用户需要反复深入排查才能发现,问题根源其实出在仓储环节——货架上实际存放的是蓝色皮靴,并且有人确实发出了蓝色皮靴。更值得注意的是,在该商品轮播图的最后一张图片中,展示的正是蓝色皮靴。此次混乱可能是由于agentic交互环节使用了错误的初始数据集所导致,但问题最终仍以静默故障的形式显现。
这是一种无声的失败。要让这些系统良好运行,你必须付出艰苦努力。如果你是风险管理者或运营领导者,你早已习惯思考这些故障模式。这并非巨大跨越。
如果你不习惯从失败模式的角度思考,我向你保证,一旦你开始尝试,它会有点让人上瘾,因为这就像审视一个谜题,然后问:“缺失的那一块在哪里?这里面肯定有缺失的部分。”
"所以,这里缺少了一部分。"所以,这绝对是你能够学会的。现在,绝对是你能够学会的。现在,绝对是你能够学会的。现在,一旦你相当好地理解了这些系统,一旦你相当好地理解了这些系统,一旦你相当好地理解了这些系统,更高层次的技能,再次强调,更高层次的技能,再次强调,更高层次的技能,再次强调,我直接根据招聘信息中我直接根据招聘信息中我直接根据招聘信息中关于信任与安全设计的内容来阐述。基本上,你如何知道在哪里设计。基本上,你如何知道在哪里设计。
实际上,你如何知道在何时何地部署这些系统,以及何时何地将人类纳入其中?你如何划定人类与代理之间的界限?你何时授权代理采取适当行动?又如何确保被授权的代理仅执行了那些适当的行动?
如何采取那些适当的行动?如何确保代理遵守规则,从而避免对客户说出不当言论?
因此,在这种情况下,你基本上需要构建一个框架,围绕容器或护栏,或者说围绕整个系统,确保其设计方式能让你确信,在生产环境中,该系统能够稳定可靠地产生价值。这是一个非常关键的过程。
这是一项极具挑战性的技能,因为这些系统具有概率性,仅仅在系统提示中简单要求“要友善、要得体”是远远不够的。因此需要深入探究。
深入探讨一下,如果我们审视这里的子技能,你必须理解错误的代价,必须理解特定问题的波及范围。构建这些系统和防护措施的艺术,就在于明确可能发生的最坏情况。
可能发生的情况,让我们先明确这一点,然后逆向思考,因为你永远无法做到完美,就像一封拼写错误的邮件草稿,那并不理想;一个错误的药物相互作用建议,对公司来说可能是灾难性的。因此,你必须明白如何评估这些风险,并确保在重大事项上做到万无一失。
对吧?另一个要点是,另一个要点是,另一个要点是可逆性。你能让这个错误通过逆转来消失吗?现在,你能让这个错误通过逆转来消失吗?现在,你能让这个错误通过逆转来消失吗?现在,你可以在发送前审阅草稿,你可以在发送前审阅草稿,你可以在发送前审阅草稿。你未必能审阅一笔已经发出的电汇交易,那已经无法挽回了。那已经无法挽回了。那已经无法挽回了。
频率是理解系统风险的另一种方式。如果某事件每天发生一万次,其潜在风险状况可能远大于每天仅发生两次的情况。
再者,如果每天两次达到十万人,或许你就得深思。这需要深入理解系统,以便清晰准确地评估对客户的影响。最后但同样重要的是可验证性,你能否验证这一点。
你能确认这是正确的吗?这是一个重要的问题,因为在这个讨论中,你必须审视整个讨论,必须审视你得到的所有答案,不能仅仅满足于语义上的正确性。语义正确性是指当LLM对客户说某些话时,听起来是正确的。
功能性客户,听起来没错。功能正确性是指当LLM说某件事是对的,那它就是对的。比如LLM可以说:“嘿,这张信用卡适合你。”这听起来正确,但如果推荐的信用卡是错误的,那仍然是一场灾难。你必须确保功能上的正确。
你必须做到功能上无懈可击。你必须确保功能正确,必须坚持这一标准,必须坚持以这一标准来衡量系统。因此,这些招聘启事往往寻找的是那些对质量有着极高要求,并坚持构建能够维护这一标准的系统的人。
现在,假设你已经完成了整个流程。你能够构建人工智能系统,理解它们所设定的边界。你是否掌握了如何明确意图?我刚才描述的所有技能中,最高阶的是情境架构。你该如何构建情境架构呢?
如何构建上下文系统,以便为代理系统提供所需信息,使其能在scale环境下成功运行?这相当于2026年版本的“将正确文档输入提示”技术,而这正是我们在2024年所做的事情。因此,你必须……
因此,你必须理解系统中的持久上下文是什么,理解系统中始终存在的是什么。什么是每个会话或每次运行所需的上下文?如何确保这些上下文对代理可用?如何确保空间中的数据对象易于AI代理查找和遍历?
如何确保AI代理能够轻松查找和遍历?如何确保不存在会混淆AI代理的脏数据和污染数据?如何区分哪些信息被纳入上下文,哪些没有?以及如何开始这一过程?
当代理开始发现错误的上下文时,该如何开始排查?上下文架构是2026年最具挑战性的任务之一,许多公司现在几乎愿意为此付出任何代价,只要能实现这一目标。
如果他们能成功做到这一点,不仅能确保构建正确,还能让他们不止打造一个agentic系统,而是数十个。这将是一次巨大的突破。
那些能够从数据角度进行逻辑思考,并以可验证的方式向代理展示其工作能力的人,可以自主决定自己的发展道路。你知道吗?要做到这一点,你并不一定非得是工程师。
要胜任这份工作,你必须具备工程师的素养。如果你是一名图书管理员,如果你是一名技术文档撰写者,那么你已经掌握了这项技能的核心要素。你拥有理解技术信息的能力,清楚它的归档位置与流转方向。从某种意义上说,这关乎信息的脉络与语境。
从某种意义上说,上下文架构就像为智能体构建杜威十进制系统。你必须懂得如何建立一个图书馆,让智能体能够轻松搜索并找到所需信息,然后说:“啊,这正是我要找的书,我需要用它来完成这项工作。”而你正在用公司数据来实现这一点。
你正在利用公司数据来做这件事。这是一种你可以测试的技能,一种你可以招聘的技能,而且目前这种技能的需求非常高。好的,这是七项技能中的最后一项。这第七项技能几乎出现在每一个高级职位的招聘信息中。它被称为成本与token经济学。
我来为你简化一下。为这项工作构建一个代理值得吗?你必须为这项工作构建一个代理吗?
你必须能够通过计算来确定给定任务中每个token的成本,并且可靠地断言:如果我派遣一个代理去执行这项任务,即便它消耗了1亿个token,我也能证明这样做是值得的,或者证明这不值得。
我可以提前进行这项工作,在我派遣大量特工应对此事之前。如果你不知道如何操作,尤其是在一个你可以选择模型、挑选你的tokens的世界里。
你必须选择合适的模型来为任务的经济效益挑选正确的token,并且要认识到所有这些模型都在不断调整其定价策略。这正是你需要应对的挑战,也是你必须掌握的能力。
想象一个世界,整体成本正在急剧下降,但对于某些特定任务,你可能需要前沿模型的定价。你如何确保在这种情况下……
当你被委派完成一项任务时,如何确保能够合理调配模型资源、精确计算任务综合成本,并确信支付金额恰当,从而获得任务的投资回报率?这是高级别专业能力的体现。
那是一个高级别的资格认证。你并不感到惊讶,对吧?它的需求量非常大。能够做到这一点,基本上就是应用数学。
实际上,你可以构建电子表格和计算器来协助完成这项工作,只需调整变量,比如预估任务量为一亿次,就能立即查看在六种不同模型下,基于给定权重计算出的实际成本。
实际上,这并不是一个给定的重量。实际上,这并不是一个给定的重量。
实际上,要弄清楚这些不同组件的成本并不像你想象的那么困难,因为你可以制作一个小型原型,然后快速地进行多次迭代,看看这个模型是否可行,并大致估算出需要多少次迭代。
大致估算一下,经过三四次运行需要多少token,经过三四次运行需要多少token,经过三四次运行需要多少token,你就能开始构建一个合理的模型。这是一种情况,你就能开始构建一个合理的模型。这是一种情况,你就能开始构建一个合理的模型。这是高中数学,但你在获取,这是高中数学,但你在获取,这是高中数学,但你在获取,
但你拿的薪水却像高级架构师或高级工程师,因为你从根本上是在运用那些数学技能,在一个瞬息万变的世界里灵活而迅速地应用它们,帮助组织以非常经济高效的方式运行这些成本不菲的智能体。
就像你通过中介挥霍十亿,必须确保万无一失,这笔钱花得值。如果你好奇我为此筛选了哪些职位?是否仅限于工程类?答案是否定的。
有些运营职位具备这些技能。有些工程职位具备这些技能。是的,有些架构职位具备这些技能。有些产品经理职位具备这些技能。有些职位具备这些技能。
存在一些AI可靠性岗位,这些岗位需要具备特定的AI可靠性技能。人们称之为技能,也有人用不同的术语来描述。我所做的,是深入挖掘并归纳出七项核心技能。接下来我们将逐一探讨这些共通技能。
到2026年,我们将见证越来越多的新技能涌现,越来越多的新职业诞生,因为从根本上说,我们正在围绕智能体重构职业体系。
因此你会发现,有人会非常明确地寻求具备高标准质量的人才,在项目初期就与代理明确合作意向,或者有人擅长评估技能组合——这些核心技能组合正是我坚信它们不会消失的原因,因为它们与人工智能的实际运作方式紧密相连。
这与人工智能的实际运作方式紧密相关。就好比智能体在处理复杂长篇写作任务时,其能力可能会提升十倍,但最终你仍然需要生成一封电子邮件。你仍需明确表达你的意图,确保内容符合预期方向。我们依然需要明确行动目标。
你仍需具备恰当地搜索背景信息的能力。这些技能是你可以信赖的。这些技能正是企业愿意押注职业生涯的所在,他们迫切渴求这样的人才,却遍寻不得。
如果你看到视频结尾,如果你看到视频结尾,如果你看到视频结尾,并且心想:"这就是我,这就是我,我举手了。"那就快去看看我在这里发布的招聘板。快去查看,快去发布你的个人资料,让我们行动起来。
快去完善你的个人资料,加入我们精心筛选的人才库,让我们简化在HI领域的求职与招聘流程。如果你正是一位招聘经理,急需这类人才,同样欢迎前来。如果你心想,我正需要这样的机会,那就赶快行动吧。
如果你渴望抵达彼岸,如果你渴望到达那里,这就是我创作这份指南的原因——为了助你抵达目标。
这就是为什么我在Substack上与你一起学习一门课程,在那里你可以真正地自学这些技能,并且能够自我诊断,问自己:“好的,我需要改进哪一项,以及如何在这方面做得更好?”所以,我的目标很实际。
我的目标在于实用。我希望这份指南能区别于其他AI自助指南,其独特之处在于足够具体以提供实际帮助,基于真实的职位要求,并扎根于实际技能需求。
基于我所见雇主们渴求的技能,在经历了数百次面试后,他们依然难以寻觅到合适人选,甚至有人无奈地摊手告诉我:“你去外面面试看看。”我已经面试了数百人,却依然无法填补这个职位的空缺。
这就是无法填补这个职位空缺的现状。这就是另一面的真实写照。如果你想成为那个世界里备受青睐的人才,那么这正适合你。收藏这个视频,反复观看。我知道内容很密集,你可以慢慢消化。
你可以将这份转录稿交给AI,让它为你解释。人们经常这么做,他们在评论里告诉我。你可以寻求帮助来完成这件事。希望这对你有帮助。干杯。