链载Ai

标题: 探索大型语言模型与基础提示技巧 [打印本页]

作者: 链载Ai    时间: 昨天 22:20
标题: 探索大型语言模型与基础提示技巧

本文要点


LLMs 是下一词预测的机器

引言

欢迎来到 大型语言模型(LLMs) 的神奇世界,以及提示技巧的基础知识领域!在本课程的第一章,我们将深入探讨LLMs的真正本质。剧透警告:它们本质上是下一词预测的机器。这听起来可能颇为简单,但其实它们的能力远不止于此。无论你是编程的新手,还是对这些技术奇迹的运作方式感到好奇,你都来对地方了。让我们携手踏上这段激动人心的探索之旅,从LLMs的核心功能入手,逐步揭开它们的神秘面纱。

理解LLMs 作为下一词预测的机器

设想你正在撰写一条短信或电子邮件,而你的手机自动弹出下一个你可能想要输入的词汇。这就是大型语言模型(LLMs)所做工作的最基本示例。但是,像 GPT-3.5GPT-4(即人们熟知的 chatGPT)、Claude 2LLaMA 这样的LLMs,它们就如同词汇预测领域的超级英雄。它们不仅能预测句子中的下一个词,还能基于已接收的输入生成连贯且有意义的长篇文本。它们通过连续预测下一个词来延续已有文本。

在LLMs的核心,是对海量文本数据的分析。通过这种分析,模型学习到了语言的模式、细微差别以及结构。这使得它们能够预测出在一系列词汇中自然接续的下一个词。可以将其比作是一场规模宏大、速度惊人的“填空游戏”。

LLMs是如何进行预测的?

你可能会好奇LLMs是如何实现这些预测的。其实,这一切都源于它们的训练过程。LLMs在训练期间会接触到包含各类教科书、文章、网站等的庞大数据集。在这一阶段,它们学习理解语言的上下文和流畅性,掌握语法、风格乃至文本的语调等元素。

当你向LLM提供一个句子或问题作为提示时,它会运用所学知识来预测最可能跟随的下一个或几个词。这并非随意猜测,而是基于其在训练过程中观察到的模式和规则进行的深思熟虑的预测。

尝试一些提示工程

考虑到LLMs的概率本质,提示工程师面临的挑战是如何尽可能一致地引导LLMs达到高度可预测和精确的结果。

在这门课程中,你将学习到许多技巧,它们将帮助你掌握高度可预测的LLM输出的艺术与科学。但在深入之前,让我们先从一些简单的练习开始,激活我们的思维。


精通一致的格式与组织以实现有效的提示构建

引言

在本课程中,我们将探讨在为《大型语言模型(LLMs)》构建提示时,保持一致的格式和组织的重要性。你可能会好奇,提示格式这样看似简单的事物如何能显著影响你从AI收到的回应。正如在人类沟通中一样,清晰和结构在确保你的请求被理解并准确执行中扮演着至关重要的角色。让我们深入探讨如何应用这些原则,使你与LLMs的互动更加有效和可预测。

一致格式的重要性

一致地格式化你的提示不仅仅是为了让它们看起来整洁;这意味着要向AI清晰地传达你的意图。想象一下,如果你在给别人烘焙蛋糕的指导,但没有按顺序列出步骤,而是将它们全部混乱地堆砌在一起。结果会怎样?混乱,很可能是一个不太美味的蛋糕。同样的原则也适用于LLMs。通过以清晰、有结构的方式呈现你的提示,你将极大地增加获得期望输出的机会。

虽然有许多方法来构建你的提示,但在本课程中,我们将教你由Prompt Engineers和CodeSignal的AI专家开发的Markdown提示框架(MPF)。

MPF是一种非常有效的创建高度可读、易于维护和有效的提示的方法,并且是Cosmo许多方面的核心技术。

Markdown提示框架(MPF)

在整个课程中,我们将看到许多MPF应用的例子,但现在,这里是一个高层次的总结:

  1. 像这样将你的提示分割成Markdown部分:SECTION








欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5