咨询热线

HASHKFK

新闻资讯
您当前的位置: 首页 > 新闻资讯 > OD SPORTS
OD体育新闻 OD SPORTS

Octopus:用于软件API函数调用的设备端语言模型OD体育官方网站- OD体育APP下载- 世界杯指定投注平台

时间:2025-08-11 01:45:34
更多
  

  od体育官方网站注册网址,od体育app官网下载,od体育最新登录网址,od体育平台,od体育app,od体育app下载,od体育靠谱吗,od体育,od体育下载,od体育官方网站,od体育官网,od体育投注,od体育下注,od体育买球,od体育世界杯,od体育欧洲杯,od体育赛事,od体育开户,od体育注册,od体育登录,od体育入口

Octopus:用于软件API函数调用的设备端语言模型OD体育官方网站- OD体育APP下载- 世界杯指定投注平台

  在快速发展的人工智能领域,大语言模型(LLMs)因其强大的文本处理与生成能力而发挥着关键作用。本研究提出了一种新策略,旨在利用设备端部署的大语言模型来调用软件API。我们从软件API文档中精心构建了一个数据集,并对参数规模分别为20亿(2B)、30亿(3B)和70亿(7B)的LLM进行微调,以显著提升其在软件API交互方面的性能。我们的方法聚焦于增强模型对API结构和语法的理解,从而大幅提高API函数调用的准确性。此外,我们提出了条件掩码技术,以确保输出符合预期格式,降低错误率,同时保持推理速度。我们还设计了一个全新的基准测试,用于评估LLM在API交互中的有效性,为后续研究奠定基础。经过微调得到的模型Octopus,在软件API调用任务上的表现优于GPT-4。本研究致力于推动自动化软件开发与API集成的发展,标志着LLM能力与实际软件工程需求之间对齐的重要进展。

  1 引言大语言模型(LLMs)的出现彻底改变了人工智能领域,在自然语言处理方面展现出广泛的能力,并已应用于数学(Imani等,2023;He-Yueya等,2023)、医疗健康(Imani等,2023;Jo等,2023;Thirunavukarasu等,2023)以及法律分析(Cui等,2023;Fei等,2023;Luppi等,2022)等专业领域。尽管取得了这些进展,LLMs在吸收实时更新信息和执行特定任务(如图像/视频编辑(Fu等,2023)或复杂的税务申报)方面仍面临挑战。将大语言模型(LLMs)与外部API集成成为一项关键的改进措施。这种结合通过API使LLMs能够访问最新信息和专用功能,不仅增强了其能力,还催生了诸如代码解释器(Bairi等,2023;Vaithilingam等,2022;Chen等,2021)等新型应用。ToolAlpaca(Tang等,2023)和NexusRaven(Srinivasan等,2023)等研究也证明了开源语言模型具备函数调用能力。因此,这一集成代表了克服LLMs固有局限性的关键一步,从而拓展了其在实际应用中的效用和创新潜力。

  进一步提升大语言模型(LLMs)与外部API的集成效果,需要解决大规模模型依赖性与效率、成本之间的平衡问题。对于仅使用少量API的特定任务而言,依赖GPT-4(Radford等,2018;2019;Brown等,2020;Achiam等,2023;Wu等,2023)这类大型模型是低效的,因为它们需要大量计算资源。这种情况促使人们开发更小、面向特定任务的LLMs,在保留核心功能的同时降低运行成本(Shen等,2024b;Pallagani等,2024)。然而,向小型模型的转变也带来了新的挑战,包括“幻觉”(hallucinations)风险增加(Yao等,2023;Zhang等,2023;Ji等,2023),导致输出格式不准确(Jiang等,2023),而正确的输出格式对于稳健的软件应用至关重要。

  针对大型LLMs存在的推理开销过大以及训练数据缺乏聚焦的问题,我们提出了一种新的LLM训练与推理框架。该框架基于从Rapid API Hub(rap,2024)收集的超过3万个广泛使用的API构成的大规模数据集,涵盖从谷歌搜索到亚马逊商品查询等多种功能。通过采用课程学习(curriculum learning)策略(Liu等,2024),我们显著提升了LLMs在多个相似选项中准确选择合适API函数的能力。这种战略性数据工程,结合我们选用的基础模型——包括Codellama7b(Roziere等,2023;Touvron等,2023)、谷歌的Gemma 7B与2B(Gemma团队,Google DeepMind,2023)、Stable Code 3B(Pinnaparaju等,2023)——充分验证了我们方法的有效性,性能超越GPT-4的基准表现。同时,由于这些模型已可在移动设备上部署(team,2023),我们的方案也确保了在各类平台(包括移动端)上的实用性。

  利用工具增强大语言模型(LLMs)将外部计算工具集成到大语言模型(LLMs)中,如GPT-4、Alpaca和Llama,标志着其能力提升的重要进展。早期的集成工作主要集中在针对特定模型的微调方法上(Lin等,2024;Hu等,2023),这些方法虽然有效,但在广泛应用和灵活性方面遇到了挑战。一个显著的转变出现在采用包含示例演示的提示(prompt)技术之后,这一方法大大扩展了工具的可访问性。所涉及的工具范围包括专用的代码解释器和广泛的检索框架,显著增强了模型解释和执行复杂指令的能力(Zhou等,2023)。此外,也观察到在工具交互的模拟环境(Shen等,2024a;Du等,2024;Xi等,2023)以及API交互框架(Li等,2023)方面的进展。同时,引入先进的推理(reasoning)策略(Valmeekam等,2022;Hao等,2023;Lewkowycz等,2022)也显著提高了模型理解和解决复杂任务的效率。

  数据集格式为提升大语言模型(LLMs)性能,对用于模型微调的数据集进行优化至关重要(Zhuang等,2024;Kong等,2023)。该过程通常采用多阶段精炼方法,利用GPT-4、Alpaca等模型进行迭代优化。通过不断改进数据集,这种方法不仅优化了输入提示(prompts),还提升了响应质量,并发展出更高级的思维链(Chain-of-Thought)(Wang等,2023;Zhang等,2022;Shridhar等,2023;Zheng等,2023a;Wei等,2022)机制。此类进展显著提高了LLMs在函数调用方面的准确性,为数据集优化和模型训练设立了新的基准。这种迭代式数据精炼代表了一种战略性转变,旨在提升LLM输出的精确度与质量。

  大语言模型生成的鲁棒性与文章生成不同,文章生成可以容忍较为灵活的输出格式,而软件应用则要求严格遵守特定的输出结构,例如Zheng等(2023b)中提到的JSON格式。目前在LLM生成过程中已观察到大量格式不一致的问题(Vaswani等,1987;Ackerman & Cybenko,2023)。为此,已有研究致力于强制执行严格的输出格式,以确保LLM生成内容的一致性和可靠性。例如,在LangChain框架中(Harrison,2022),提供了多种输出解析器(output parsers),用于强制输出为YAML、JSON、CSV等格式。然而,仍有许多情况无法通过输出解析器解决,尤其是函数调用的响应格式问题。

地址:OD体育官方网站(OD SPORTS)竞技游戏展示工作室有限公司   电话:HASHKFK
传真:0896-98589990
ICP备案编号:
Copyright © 2012-2024 OD体育官方网站(OD SPORTS)竞技游戏展示工作室有限公司 版权所有 非商用版本