人工智能助手
人工智能助手(AI Assistant)是一种利用人工智能技术开发的软件或系统,旨在为用户提供个性化的帮助、信息检索、任务执行、自动化处理等多种服务。这些助手能够理解和响应自然语言指令,学习用户的习惯与偏好,并在各种场景下辅助用户完成复杂或日常的任务。
人工智能助手的核心功能包括但不限于:
1. 自然语言处理:能够识别和理解人类语言,包括文本和语音,从而与用户进行流畅的对话交流。
2. 智能问答:根据用户的问题或请求,从互联网、数据库或内置知识库中检索相关信息,并给出准确的答案或建议。
3. 任务管理:帮助用户管理日程、提醒事项、待办清单等,自动安排优先级,甚至执行一些简单的任务,如发送邮件、设置闹钟等。
4. 个性化推荐:通过分析用户的行为和偏好,提供个性化的内容推荐,如新闻、音乐、电影、购物建议等。
5. 智能家居控制:与智能家居设备连接,允许用户通过语音或手机应用远程控制家中的灯光、温度、安防系统等。
6. 学习与适应:随着使用时间的增长,人工智能助手能够学习用户的习惯、偏好和情绪,不断优化自己的响应和服务质量。
目前,市场上存在多种类型的人工智能助手,如智能手机上的语音助手(如Siri、Google Assistant、小爱同学等)、智能家居中心(如Amazon Echo、Google Home)、以及特定领域的专业助手(如医疗咨询助手、法律文档助手等)。这些助手极大地提高了人们的生活和工作效率,使得人工智能技术更加贴近普通人的生活。
介绍
在人工智能领域,构建一个能够理解并响应用户需求的智能助手是一项挑战性的任务。PhiData作为一个开源框架,为开发者提供了构建具有长期记忆、丰富知识和强大工具的AI助手的可能性。PhiData的核心优势、应用示例以及如何使用PhiData来构建自己的AI助手。
PhiData的设计理念如下,一个Assistant是以LLM为核心,加上长期记忆(Memory)、知识(结构化、非结构化)和工具(Tools,比如搜索、api调用等),这样就组成了一个完整的Assistant。
基于这些设计理念,PhiData可以帮助用户方便的构建助手应用,这些助手不仅拥有长期记忆,能够记住与用户的每一次对话,还具备丰富的业务知识和执行各种动作的能力。
官方提供了一些example
LLM OS: 使用大型语言模型(LLMs)作为核心处理单元来构建一个新兴的操作系统.
Autonomous RAG: 自主RAG 结合检索和生成任务的模型,赋予了LLMs搜索它们的知识库、互联网或聊天记录的能力。
Local RAG: 本地RAG 利用Ollama和PgVector等技术,使得RAG模型可以完全在本地运行。
Investment Researcher: 投资研究员 利用Llama3和Groq生成关于股票的投资报告.
News Articles: 使用Llama3和Groq撰写新闻文章。
Video Summaries: 使用Llama3和Groq生成YouTube视频的摘要。
Research Assistant: 利用Llama3和Groq帮助研究人员编写研究报告。
官方仓库的cookbook目录里有一个demo agents程序,使用streamlit开发了交互界面,官方默认是用的open ai的GPT4。我们简单修改,支持groq。
左边支持选择模型,选择Tools与Assistant。我们来一探究竟,这里的tools与Assistant是如何协作的。
运行这个agents,我们从debug信息可以看到prompt。
上面的instructions
内容较多,我们抽主要的内容画一个graph图,就方便理解了:
让LLM可以通过tools来处理一些具体的问题
对于一些类别的任务,可以委托给特定的助手,比如研究报告、投资助手等
然后针对可以委托的助手,prompt增加了具体的描述,方便LLM去调度,每个助手内部也有各种tools,LLM可以选择合适的
当我们问英伟达最新财报
, LLM 识别到需求,选用Investment Assistant
助手,然后调用get_investment_report
工具
再换个问题, 今天法国发生了什么
, 这个成功调用了DD搜索。
============== user ==============
DEBUG 今天法国发生了什么
DEBUG Time to generate response: 6.3184s
DEBUG ============== assistant ==============
DEBUG It seems there isn't a specific tool that provides the information you're asking for, so here's the answer to your question:
Today's news from France include:
- According to Reuters, trade unions at the French ports of Le Havre and Marseille-Fos have postponed planned strikes initially planned for today and
tomorrow. (<https://www.reuters.com/business/retail-consumer/french-port-workers-postpone-strike-action-2023-05-23/>)
- Le Point (French news outlet) reports that police detained 23 people after clashes near a migrant camp on the outskirts of Paris on Monday night.
(<https://www.lepoint.fr/societe/immigration/revolte-dans-un-camp-de-migrants-a-paris-01-05-2023-2429234_26.php>)
- French Prime Minister Élisabeth Borne visited the damaged areas of the flooded Aude and Hérault regions.
(<https://www.france24.com/fr/france/20230523-les-inondations-en-aude-et-herault-elisabeth-borne-sur-le-terrain-pour-rencontrer-les-sinistres>)
当前像coze
、dify
这样的产品都支持workflow功能,可以可视化的定义workflow来解决一些相对复杂的问题,而PhiData提供了通过code编排workflow的功能。
PhiData的workflow
是可以串联assistant
, 比如下面的例子:
import json
import httpx
from phi.assistant import Assistant
from phi.llm.groq import Groq
from phi.workflow import Workflow, Task
from phi.utils.log import logger
llm_id: str = "llama3-70b-8192"
def get_top_hackernews_stories(num_stories: int = 10) -> str:
"""Use this function to get top stories from Hacker News.
Args:
num_stories (int): Number of stories to return. Defaults to 10.
Returns:
str: JSON string of top stories.
"""
# Fetch top story IDs
response = httpx.get("https://hacker-news.firebaseio.com/v0/topstories.json")
story_ids = response.json()
# Fetch story details
stories = []
for story_id in story_ids[:num_stories]:
story_response = httpx.get(f"https://hacker-news.firebaseio.com/v0/item/{story_id}.json")
story = story_response.json()
story["username"] = story["by"]
stories.append(story)
return json.dumps(stories)
def get_user_details(username: str) -> str:
"""Use this function to get the details of a Hacker News user using their username.
Args:
username (str): Username of the user to get details for.
Returns:
str: JSON string of the user details.
"""
try:
logger.info(f"Getting details for user: {username}")
user = httpx.get(f"https://hacker-news.firebaseio.com/v0/user/{username}.json").json()
user_details = {
"id": user.get("user_id"),
"karma": user.get("karma"),
"about": user.get("about"),
"total_items_submitted": len(user.get("submitted", [])),
}
return json.dumps(user_details)
except Exception as e:
logger.exception(e)
return f"Error getting user details: {e}"
groq = Groq(model=llm_id, api_key="你的API KEY")
hn_top_stories = Assistant(
name="HackerNews Top Stories",
llm=groq,
tools=[get_top_hackernews_stories],
show_tool_calls=True,
)
hn_user_researcher = Assistant(
name="HackerNews User Researcher",
llm=groq,
tools=[get_user_details],
show_tool_calls=True,
)
writer = Assistant(
name="HackerNews Writer",
llm=groq,
show_tool_calls=False,
markdown=True
)
hn_workflow = Workflow(
llm=groq,
name="HackerNews 工作流",
tasks=[
Task(description="Get top hackernews stories", assistant=hn_top_stories, show_output=False),
Task(description="Get information about hackernews users", assistant=hn_user_researcher, show_output=False),
Task(description="写一篇有吸引力的介绍文章,用中文输出", assistant=writer),
],
debug_mode=True,
)
# 写一篇关于在 HackerNews 上拥有前两个热门故事的用户的报告
hn_workflow.print_response("Write a report about the users with the top 2 stories on hackernews", markdown=True)
定义了三个assistant
, 获取hackernews排行榜
,获取文章的作者
,生成文章
,通过Workflow来实现这三个assistant
的编排。
运行结果:
┌──────────┬──────────────────────────────────────────────────────────────────┐
│ │ Write a report about the users with the top 2 stories on │
│ Message │ hackernews │
├──────────┼──────────────────────────────────────────────────────────────────┤
│ Response │ ┌──────────────────────────────────────────────────────────────┐ │
│ (17.0s) │ │ ** HackerNews 知名人物介绍 ** │ │
│ │ └──────────────────────────────────────────────────────────────┘ │
│ │ │
│ │ 近日,我们对 HackerNews │
│ │ 的前两名热门故事进行了分析,并对这些故事背后的用户进行了深入挖 … │
│ │ │
│ │ │
│ │ ** 排名第一:onhacker ** │
│ │ │
│ │ 以 258 分领跑 HackerNews排行榜的用户是 │
│ │ onhacker,他的故事《Windows 10 │
│ │ 壁纸原来是真实拍摄的(2015)》引起了大家的关注。onhacker 的 │
│ │ HackerNews 账户信息显示,他的 karma 分数为 106,共提交了 27 │
│ │ 条内容。他的个人介绍页面上写道:“distributing distrubuted to │
│ │ distrub”,显露出了他幽默的一面。│
│ │ │
│ │ │
│ │ ** 排名第二:richardatlarge ** │
│ │ │
│ │ 排在第二位的用户是 richardatlarge,他的故事《OpenAI 并未复制 │
│ │ Scarlett Johansson 的声音,记录显示》获得了 102 │
│ │ 分。richardatlarge 的 HackerNews 账户信息显示,他的 karma │
│ │ 分数高达 1095,共提交了 354 │
│ │ 条内容。他是一名来自美国、现居新西兰的作家,个人介绍页面上留下 … │
│ │ from the US, living in NZ”。│
│ │ │
│ │ 通过这两位用户的介绍,我们可以看到他们在 HackerNews │
│ │ 社区中的影响力和贡献。他们热衷于分享信息和想法,引发了大家的热 … │
└──────────┴──────────────────────────────────────────────────────────────────┘
llama3 的中文被弱化了,结果比较一般。
如何构建自己的RAG AI助手
基于Phidata的技术原理和优势,我们可以轻松地构建自己的RAG AI助手。以下是一些建议:
选择合适的预训练模型:选择一个性能优异的预训练模型是构建RAG AI助手的关键。Phidata提供了多种预训练模型供选择,可以根据具体需求选择合适的模型。
引入高效的检索机制:为了提升AI助手的性能,我们需要引入一种高效的检索机制。Phidata的检索机制可以为我们提供有力的支持,使得AI助手能够在需要时快速检索出相关信息。
结合实际应用场景进行优化:在构建RAG AI助手时,我们需要结合实际应用场景进行优化。例如,可以针对特定领域的数据进行训练,提升AI助手在该领域的性能。此外,还可以通过调整模型参数、优化算法等方式来进一步提升AI助手的性能。
总之,Phidata的成功登顶GitHub并非偶然,其背后的技术原理和优势使得RAG AI助手的构建变得简单高效。通过深入了解Phidata的技术原理并结合实际应用场景进行优化,我们可以轻松地构建出具有强大功能的RAG AI助手,为我们的日常生活和工作带来便利。
开源地址
关注公众号 回复 20241027 获得
猜您喜欢:
【开源】支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用。
【开源】五脏俱全,组件独立,可扩展的国产工作流引擎
【开源】采用无代码设计理念,为企业提供「免费」表单问卷能力,「开箱即用」快速赋能业务
【开源】一款基于Web的开源用户支持/工单管理系统,旨在帮助团队管理和协调来自多种渠道的客户通信。
【开源】面向中小企业的进销存管理PSI和仓库管理系统WMS,无需编写任何代码就能增加常规功能,亦支持高效开发复杂功能。
添加微信进相关交流群,
备注“微服务”进群交流
备注“低开”进低开群交流
备注“AI”进AI大数据,数据治理群交流
备注“数字”进物联网和数字孪生群交流
备注“安全”进安全相关群交流
备注“自动”进自动化运维群交流
备注“试用”可以申请产品试用
备注“渠道”可以合作渠道信息
备注“定制”可以定制项目,全源码交付