首页 产业新闻 Refuel AI 推出专为数据标注和清洗设计的开源语言模型 RefuelLLM-2

Refuel AI 推出专为数据标注和清洗设计的开源语言模型 RefuelLLM-2

产业新闻 4

    Refuel AI 最近宣布推出两个新版本的大型语言模型(LLM),RefuelLLM-2和 RefuelLLM-2-small,这两个模型专为数据标注、清洗和丰富任务而设计,旨在提高处理大规模数据集的效率。

    RefuelLLM-2的主要特点包括:

    自动化数据标注:能够自动识别和标记数据中的关键信息,如分类数据和解析特定属性。数据清洗:自动检测并修正数据中的错误或不一致性,例如拼写错误和格式问题。数据丰富:根据现有数据自动补充缺失信息或提供额外上下文,增加数据的价值和可用性。高准确率:在约30项数据标注任务的基准测试中,RefuelLLM-2以83.82%的准确率优于所有其他最先进的大型语言模型,包括 GPT-4-Turbo 和 Claude-3-Opus。

    自动化数据标注:能够自动识别和标记数据中的关键信息,如分类数据和解析特定属性。

    数据清洗:自动检测并修正数据中的错误或不一致性,例如拼写错误和格式问题。

    数据丰富:根据现有数据自动补充缺失信息或提供额外上下文,增加数据的价值和可用性。

    高准确率:在约30项数据标注任务的基准测试中,RefuelLLM-2以83.82%的准确率优于所有其他最先进的大型语言模型,包括 GPT-4-Turbo 和 Claude-3-Opus。

    两款模型的比较:

    RefuelLLM-2:基于 Mixtral-8x7B 模型,支持高达32K的最大输入上下文长度,适合处理长文本输入。RefuelLLM-2-small:基于 Llama3-8B 模型,提供一个成本更低、运行更快的选项,同时保持高性能,支持高达8K的输入上下文长度。

    RefuelLLM-2:基于 Mixtral-8x7B 模型,支持高达32K的最大输入上下文长度,适合处理长文本输入。

    RefuelLLM-2-small:基于 Llama3-8B 模型,提供一个成本更低、运行更快的选项,同时保持高性能,支持高达8K的输入上下文长度。

    训练细节:

    两款模型都在超过2750个数据集上进行训练,涵盖分类、阅读理解、结构化属性提取和实体解析等任务。训练方法:包括两个阶段,第一阶段专注于指令调整训练,第二阶段则加入更长上下文的输入,以提高模型在复杂数据处理任务中的表现。

    两款模型都在超过2750个数据集上进行训练,涵盖分类、阅读理解、结构化属性提取和实体解析等任务。

    训练方法:包括两个阶段,第一阶段专注于指令调整训练,第二阶段则加入更长上下文的输入,以提高模型在复杂数据处理任务中的表现。

    性能提升:

    两阶段训练方法使得 RefuelLLM-2在基本数据处理任务中表现出色,并能有效处理长上下文输入。

    质量评估:

    在长上下文数据集和非公开数据集的评估中,RefuelLLM-2和 RefuelLLM-2-small 均展现出良好的性能和泛化能力。在置信度分数质量方面,RefuelLLM-2和 RefuelLLM-2-small 显示出比其他模型更好的置信度分数校准。

    在长上下文数据集和非公开数据集的评估中,RefuelLLM-2和 RefuelLLM-2-small 均展现出良好的性能和泛化能力。

    在置信度分数质量方面,RefuelLLM-2和 RefuelLLM-2-small 显示出比其他模型更好的置信度分数校准。

    Refuel AI 的这一创新为数据标注和清洗领域带来了新的解决方案,有助于自动化和优化大规模数据处理流程。

    playground//labs.refuel.ai/playground

    模型下载//huggingface.co/refuelai/Llama-3-Refueled

广告

文章目录

    标签列表