你真的会使用AI吗?CO-STAR超给力提示词框架,速看

就在今年5月,新加坡政府科技局(GovTech)组织了首届 GPT-4 提示工程大赛,吸引了超过 400 名杰出的参与者。冠军获得者Sheila Teo分享了如何使用一些简单有效的技巧来优化对ChatGPT的使用。

对于AI使用者来说,结构化的提示词框架能够帮助我们以一种更系统、更明确的方式与 AI 交互。这种清晰性对于确保 AI 系统能准确理解用户的意图至关重要,特别是在处理复杂的查询或命令时。

CO-STAR框架是新加坡政府科技部数据科学与人工智能团队的心血,是构建提示的便捷模板。 它考虑到了大型语言模型回答的有效性和相关性的所有关键方面,从而使回答更加优化。

先一起来看下CO-STAR框架:

你真的会使用AI吗?CO-STAR超给力提示词框架,速看

通过CO-STAR框架图我们可以看到,分为六大点:

Context(C)上下文:

Context非常好理解,即是上下文,我们需要给GPT提供一个清晰的上下文,就比如我们要讲一个故事,需要讲清楚故事的前因后果,听故事的人才能听明白,然后给你准确的反馈。

Objective (O)目标 :

明确你希望GPT给你提供什么样的帮助,清晰地界定任务目标,可以使大语言模型更专注地调整其回应,以实现这一具体目标。

Style (S) 风格 :

明确你期望的写作风格,你可以指定一个特定的著名人物或某个行业专家的写作风格,如商业分析师或 CEO。这可以指导大语言模型以一种符合你需求的方式和词汇选择进行回应。

Tone (T) 语气 :

告诉ChatGPT你期望的表达语气,确保大语言模型的回应能够与预期的情感或情绪背景相协调。可能的语气包括正式、幽默、富有同情心等。如果你希望文章更加正式,就明确说明:“这篇文章的语气应该正式而专业。”

Audience (A) 受众:

识别目标受众针对特定受众定制大语言模型的回应,无论是领域内的专家、初学者还是儿童,都能确保内容在特定上下文中适当且容易理解。比如这样:”我的读者都是AI小白,需要用简单的方式解释复杂的概念“

Response (R) 响应:

最后,规定输出的回应格式,这是为了确保大语言模型按照你的具体需求进行输出,便于执行下游任务。常见的格式包括列表、JSON 格式的数据、专业报告等。对于大部分需要程序化处理大语言模型输出的应用来说,JSON 格式是理想的选择。

看到这里,是不是会觉得有点复杂,有种似懂非懂的感觉。

都说实践是检验真理的唯一标准,那接下来就一起来实操一下,比如现在需要在Fb发布一条帖子,宣传公司的产品。未使用CO-STAR结构的提问可能是:”为我公司的新产品 Cno——一款降噪舒适的蓝牙耳机撰写一条Fb帖子”,得到的结果是这样的:

你真的会使用AI吗?CO-STAR超给力提示词框架,速看

可以看到这个结果缺乏必要的细节和针对性吸引力,好像套用在任何产品上都合适,而且没有阐述产品的特点给到用户。

那使用CO-STAR结构应该是怎样提问呢?

对于一些AI小白来说,要理解CO-STAR结构并正确使用,会有一点难度,AI工具的出现是为了便捷我们的生活而不是为我们制作困难,而302.AI自研的AI提示词生成器工具替大家解决这个难题。

你真的会使用AI吗?CO-STAR超给力提示词框架,速看

AI提示词生成器工具操作界面简洁,包含了CO-STAR和CRISPE两种结构。使用方法也非常非常方便!我们只需要输入未使用CO-STAR结构的提问,选择结构类型后点击【生成】,便会得到使用CO-STAR结构后的提问,得出的结果还可以进行修改调整。

你真的会使用AI吗?CO-STAR超给力提示词框架,速看

接下来将继续我们的实践,我们将使用AI提示词生成器工具后得到的结果复制,再去提问,看下会得到什么结果:

你真的会使用AI吗?CO-STAR超给力提示词框架,速看

可以看到得到的文案,不仅突出了产品的特点,还能够与使用场景相结合,更能够吸引到目标用户。

参考文章:https://www.bilibili.com/read/cv34387928/?spm_id_from=333.999.0.0

随着AI时代的到来,很多人都开始尝试使用AI去帮助我们的工作或者生活解决问题,无论是CO-STAR提示词结构还是AI提示词工具的出现,都是为了更好的帮助我们使用AI这一工具,通过它们,我们能够训练AI更好地理解我们的需求,更准确地执行我们的指令。这不仅提高了工作效率,也让我们有更多的时间去探索和创造。

Like (4)
302.AI302.AI
Previous 2024 年 7 月 12 日 下午3:23
Next 2024 年 7 月 12 日 下午5:33

相关推荐

  • 资讯丨302.AI ComfyUI API对比Gemini-2.0-Flash图片编辑:突破玩具到商用的临界点

    近期,302.AI上线了 ComfyUI 系列 API,这是基于 ComfyUI 实现的图片处理服务,可实现换装、换脸、换物、漫画图变真人、风格迁移等任务,生成的效果达到商用级,能够真正帮助电商企业制作出优质的产品宣传图。 同期,Google 的 Gemini 2.0 Flash 原生多模态能力在AI圈子掀起了一阵浪潮。据闻,这一功能可以通过文字描述处理文本…

    2025 年 3 月 19 日
    12400
  • 中文大模型多模态理解评测,腾讯混元大模型获榜单国内第一

    8月初,中文多模态大模型SuperCLUE-V基准发布8月榜单,其中腾讯混元大模型斩获国内大模型排名第一。 测评涵盖了国内外最具代表性的12个多模态理解大模型,包含4个海外模型和8个国内代表性多模态模型,评估内容包含基础能力和应用能力,以开放式问题对多模态大模型进行评估。其中,腾讯混元大模型Hunyuan-Vision凭借其卓越的多模态基础能力和出色的应用能…

    2024 年 8 月 26 日
    66500
  • 资讯丨谷歌突袭发布新模型Gemini 2.0 Flash实验版,原来这才是性价比之王?!

    12月12日的凌晨,当OpenAI的“12天连续发布”活动如火如荼地进行到第五天时,谷歌在毫无预兆的情况下,带来了其新系列大模型:Gemini 2.0,而Gemini 2.0 Flash Exp,则是Gemini 2.0 系列模型中的第一个模型。 虽然没有找到准确的参数,但据了解,Flash是Gemini模型序列中,除了专为端侧开发的Nano模型外,参数最小…

    2024 年 12 月 12 日
    26500
  • 资讯丨实测Doubao文生图模型v2.1版本,中英文内容生成竟轻松拿捏!

    12月,字节跳动豆包大模型团队推出文生图模型 v2.1版本,这次的升级对比通用 2.0和通用 2.0 PRO版本,除了结构准确和美感明显提升外,重点支持了中英文字符渲染。 据了解,豆包文生图模型v2.1通过打通 LLM 和 DiT 构架,构建了高质量文字渲染能力,大幅提升文字生成准确率。这种原生的文字渲染能力,让文字与整体画面的融合更为自然和实用。 >…

    2024 年 12 月 31 日
    72600
  • Glif生成的meme图瞎说什么大实话!如何免注册无次数限制使用?

    近日,在国外社交媒体平台上,一款叫做“Glif”的AI应用迅速蹿红,Glif有点类似国内的Coze,通过低代码或无代码的方式,并提供了非常多的工具作为节点,搭建工作流。 接下来先说一下Glif是什么,Glif是一个有趣的低代码平台,在基本层面上,Glif接受用户输入(文本、图像或点击按钮),并使用强大的AI模型生成输出(文本、图像、视频或这些的组合)。 概括…

    2024 年 7 月 17 日
    54100

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注