admin管理员组文章数量:1582327
在前面的文章里,我们介绍了很多有关提示工程的前沿技术与工具,它们都揭示了一个共识性方向,就是提示工程不仅仅是人机对话的语言艺术,更是一个持续迭代优化的系统性软件工程。近日,OpenAI前研究科学家william对外正式开源了一个号称面向未来的提示工程库,名为 ell[1],它将提示视为函数,并提供了一系列强大的工具来优化和管理提示。
在这个库中有一些核心设计理念值得大家学习借鉴。
提示是程序,而不是字符串
在传统的提示工程中,我们通常将提示视为简单的字符串。然而,ell
颠覆了这一观念,将提示视为程序。通过这种方式,我们可以将提示封装成独立的子程序,称为语言模型程序(Language Model Program, LMP)。这些 LMP 是完全封装的函数,可以生成字符串提示或消息列表,发送到各种多模态语言模型。
让我们从一个传统的 API 调用示例开始,看看如何使用 ell
实现相同的功能。以下是使用 OpenAI Chat Completion API 的简单示例:
import openai
openai.api_key = "your-api-key-here"
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Say hello to Sam Altman!"}
]
response = openai.ChatCompletion.create(
model="gpt-4o",
messages=messages
)
print(response['choices'][0]['message']['content'])
现在,让我们看看如何使用 ell
实现相同的结果:
import ell
@ell.simple(model="gpt-4o")
def hello(name: str):
"""You are a helpful assistant.""" # 系统提示
return f"Say hello to {name}!" # 用户提示
greeting = hello("Sam Altman")
print(greeting)
ell
通过鼓励你将提示定义为功能单元来简化提示。在这个示例中,hello
函数通过文档字符串定义系统提示,通过返回字符串定义用户提示。提示的用户只需调用定义的函数,而不需要手动构建消息。在此基础上,我们可以进一步地改进提示。
import ell
import random
def get_random_adjective():
adjectives = ["enthusiastic", "cheerful", "warm", "friendly"]
return random.choice(adjectives)
@ell.simple(model="gpt-4o")
def hello(name: str):
"""You are a helpful assistant."""
adjective = get_random_adjective()
return f"Say a {adjective} hello to {name}!"
greeting = hello("Sam Altman")
print(greeting)
在这个示例中,我们的 hello
LMP 依赖于 get_random_adjective
函数。每次调用 hello
时,它都会生成一个不同的形容词,创建动态、多样的提示。显然,ell
可使提示更具可读性、可维护性和可重用性。
提示工程是一个优化过程
提示工程的过程类似于机器学习中的优化过程,需要多次迭代。由于 LMP 只是函数,ell
提供了丰富的工具来支持这一过程。
ell
通过静态和动态分析,提供了提示的自动版本控制和序列化,并生成自动提交消息到本地存储。这一过程类似于机器学习训练中的检查点,但不需要特殊的 IDE 或编辑器——只需使用常规的 Python 代码即可。
import ell
ell.init(store='./logdir') # 版本控制你的 LMP 和它们的调用
# 定义你的 LMP
hello("strawberry") # LMP 的源代码和调用被保存到存储中
同时,ell
提供了一个名为 Ell Studio 的本地开源工具,可用于提示版本控制、监控和可视化。通过 Ell Studio,你可以将提示优化过程科学化,并在问题出现之前捕捉到回归。
优雅实现测试时计算
从演示到实际应用,通常需要多次调用语言模型。这不仅仅是简单的字符串拼接,而是一个复杂的编程过程。通过强制功能分解问题,ell
使得在可读和模块化的方式中实现测试时计算变得容易。
import ell
@ell.simple(model="gpt-4o-mini", temperature=1.0, n=10)
def write_ten_drafts(idea: str):
"""You are an adept story writer. The story should only be 3 paragraphs"""
return f"Write a story about {idea}."
@ell.simple(model="gpt-4o", temperature=0.1)
def choose_the_best_draft(drafts: List[str]):
"""You are an expert fiction editor."""
return f"Choose the best draft from the following list: {'\\n'.join(drafts)}."
drafts = write_ten_drafts(idea)
best_draft = choose_the_best_draft(drafts) # 从10个草稿中选择最佳草稿
测试时计算(Test-Time Computation)是机器学习和深度学习中的一个概念,指的是在模型推理阶段(也就是测试时)进行额外的计算或处理,以提高模型的性能或适应性。这种方法通常用于解决训练数据和测试数据之间存在差异的问题,或者在不重新训练模型的情况下提高模型的泛化能力。其核心思路是不重新训练模型,而是在模型实际使用时进行额外的处理,以提高模型的表现。类似于人类在应用所学知识时会根据具体情况做出适当灵活变通处理,而不是僵化执行。
每次调用语言模型都很重要
每次调用语言模型都非常宝贵,值得跟踪分析。在实践中,LLM 调用用于微调、蒸馏、k-shot 提示、从人类反馈中进行强化学习等。一个好的提示工程系统应该将这些作为一等公民概念捕捉。
除了存储每个 LMP 的源代码外,ell
还可以选择性地本地保存每次调用语言模型的记录。这使你能够生成调用数据集,比较不同版本的 LMP 输出,并充分利用提示工程的所有工件。
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈
需要时复杂,不需要时简单
使用语言模型通常只是传递字符串,但有时需要更复杂的输出。ell
提供了 @ell.simple
和 @ellplex
装饰器,分别用于生成简单字符串输出和复杂的消息对象响应。
import ell
@ell.tool()
def scrape_website(url: str):
return requests.get(url).text
@ell.complex(model="gpt-5-omni", tools=[scrape_website])
def get_news_story(topic: str):
return [
ell.system("""Use the web to find a news story about the topic"""),
ell.user(f"Find a news story about {topic}.")
]
message_response = get_news_story("stock market")
if message_response.tool_calls:
for tool_call in message_response.tool_calls:
# 处理工具调用
pass
if message_response.text:
print(message_response.text)
if message_response.audio:
# message_response.play_audio() 支持多模态输出
pass
多模态是一等公民
LLM 可以处理和生成各种类型的内容,包括文本、图像、音频和视频。使用这些数据类型进行提示工程应该像处理文本一样简单。
from PIL import Image
import ell
@ell.simple(model="gpt-4o", temperature=0.1)
def describe_activity(image: Image.Image):
return [
ell.system("You are VisionGPT. Answer <5 words all lower case."),
ell.user(["Describe what the person in the image is doing:", image])
]
# 从摄像头捕捉图像
describe_activity(capture_webcam_image()) # 输出: "they are holding a book"
ell
支持多模态输入和输出的丰富类型转换。你可以在 LMP 返回的 Message
对象中内联使用 PIL 图像、音频和其他多模态输入。
提示工程库不干扰你的工作流程
ell
设计为一个轻量级且不干扰的库。它不要求你改变编码风格或使用特殊的编辑器。
你可以继续在你的 IDE 中使用常规的 Python 代码来定义和修改提示,同时利用 ell
的功能来可视化和分析你的提示。你可以逐步从 langchain 迁移到 ell
,一次一个函数。
结语
ell
通过将提示视为函数,并提供一系列强大的工具,重新定义了提示工程。它不仅简化了提示的创建和管理过程,还使得提示优化变得科学化和系统化。无论你是提示工程的新手还是经验丰富的专家,ell
都能为你提供有价值的支持。
如何学习AI大模型?
?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业
?”“谁的饭碗又将不保了?
”等问题热议不断。
不如成为「掌握AI工具的技术人
」,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料
分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程
等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈
学习路线
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
版权声明:本文标题:OpenAI前研究科学家开源面向未来的提示工程库 ell,重新定义提示工程 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://m.elefans.com/dianzi/1727895149a1136714.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论