OpenLLMLeaderboard是最大的大模型和数据集社区HuggingFace推出的开源大模型排行榜单基于EleutherAILanguageModelEvaluationHarness(EleutherAI语言模型评估框架)封装。
由于社区在发布了大量的大型语言模型(LLM)和聊天机器人之后往往伴随着对其性能的夸大宣传很难过滤出开源社区取得的真正进展以及目前的最先进模型。因此HuggingFace使用EleutherAI语言模型评估框架对模型进行四个关键基准测试评估。这是一个统一的框架用于在大量不同的评估任务上测试生成式语言模型。
OpenLLMLeaderboard的评估基准

AI2推理挑战(25-shot):一组小学科学问题
HellaSwag(10-shot):一个测试常识推理的任务对人类来说很容易(大约95%)但对SOTA模型来说具有挑战性。
MMLU(5-shot)-用于测量文本模型的多任务准确性。测试涵盖57个任务包括基本数学、美国历史、计算机科学、法律等等。
TruthfulQA(0-shot)-用于测量模型复制在在线常见虚假信息中的倾向性。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索