资料收集
# 好用的工具
# 搜索 API
# You.com
You.com 专注于 LLM 应用场景,通过三个独特的端点提供实时网络数据:
- Web LLM:将 Web 搜索与 LLM 结合,以获得精细的响应
- Web Search:提供比传统搜索引擎(如必应和谷歌)更详细信息的扩展摘要
- News:类似 Web Search,但专注于最新事件
文档简单易懂,配有使用流行的 requests Python 包的代码片段。
当前速率限制为 每秒 20 次,默认调用的执行时间约为 1 秒。Web Search 返回的数据比常规搜索引擎 API 多得多,我建议使用具有大(即 32k)上下文窗口的 LLM。
# Tavily Search
Tavily Search API 将复杂搜索简化为单个调用,为 AI 开发人员提供快速准确的结果。它结合了爬取和数据提取,每次请求访问 20 多个来源,以获得准确答案和全面研究。
Tavily 提供详细的文档和用户友好的 API 演示环境供测试。响应时间根据搜索深度和选择的字段而异(1-10 秒),可以选择访问原始搜索内容,尽管可能需要进行广告相关的清理。
我的请求的代码执行时间约为 1 秒。速率限制为 每分钟 20 次,相当严格。
# Perplexity AI
Perplexity AI 提供引用、研究和获取等服务,有助于进行广泛的查询和研究整合。
开发人员可以使用他们的 pplx-api 进行知识访问。提供的文档用户友好且易于理解。Perplexity AI 提供了开源语言模型和名为 Sonar 的在线模型。然而,目前通过 API 提供的在线模型不返回来源或引文,但这一功能计划在未来更新中实现。我的代码执行大约需要 1 秒。在线模型的当前速率限制为 每分钟 20 次,相当严格。
上次更新: 2025/06/01, 13:06:00