当前位置: 首页 产品详细

有试卷真题的公众号

专业小程序设计开发——助力新电商新零售

电话+V:192606-48052,欢迎咨询有试卷真题的公众号,[小程序设计与开发],[小程序投流与推广],[小程序后台搭建],[小程序整套源码打包],[为个体及小微企业助力],[电商新零售模式],[小程序运营推广及维护]

一、2022年同等学力申硕《政治学学科综合水平考试》真题去哪找

金太阳教育公众号。金太阳教育公众号是主要发布前沿课改服务、教育信息、出版资讯、行业动态、高三模拟试卷动态的公众号,因此2022年同等学力申硕《政治学学科综合水平考试》真题去金太阳教育公众号可以找到。公众号是开发者或商家在微信公众平台上申请的应用账号。

二、2023年THUSSAT精选真题集即将上线

2023年,THUSSAT精选真题集将与大家见面,专为高三学生打造,覆盖数学、物理、化学、生物四大科目。

内容精选自2022年THUSSAT诊断性测试(TDA),包含高频错题与经典试题,每一道题都附有详细解答与深度点拨,旨在帮助学生深化理解、提升解题技巧。

此题集适用于日常学习训练与拔高提升,是高三学子冲刺名校的必备工具。

征订方式:在微信公众号【THUSSAT服务】底部菜单栏选择【服务】→【试卷购买】,即可轻松下单。

物流信息查询:进入【服务】→【试卷购买】→【我的】→【查看详情】→【详细信息】,根据订单状态进行查看。在【待发货】状态下,敬请耐心等待。

所有开放征订试卷均提供免费邮递服务。一经售出,恕不接受退货,敬请谅解。

撰写与编辑:由THUSSAT教研室负责内容编写与梦奇进行编辑。

新测试基准发布,最强开源Llama3分数骤降,差距拉开了

北京

梦晨发自凹非寺

量子位|公众号QbitAI

如果试题太简单,学霸和学渣都能考90分,拉不开差距……

随着Claude3、Llama3甚至之后GPT-5等更强模型发布,业界急需一款更难、更有区分度的基准测试

大模型竞技场背后组织LMSYS推出下一代基准测试Arena-Hard,引起广泛/p>

Llama3的两个指令微调版本实力到底如何,也有了最新参考。

与之前大家分数都相近的MTBench相比,Arena-Hard区分度从22.6%提升到87.4%,孰强孰弱一目了然。

Arena-Hard利用竞技场实时人类数据构建,与人类偏好一致率也高达89.1%

除了上面两个指标都达到SOTA之外,还有一个额外的好处:

实时更新的测试数据包含人类新想出的、AI在训练阶段从未见过的提示词,减轻潜在的数据泄露

并且新模型发布后,无需再等待一周左右时间让人类用户参与投票,只需花费25美元快速运行测试管线,即可得到结果。

有网友评价,使用真实用户提示词而不是高中考试来测试,真的很重要。

新基准测试如何运作?

简单来说,通过大模型竞技场20万个用户查询中,挑选500个高质量提示词作为测试集。

首先,挑选过程中确保多样性,也就是测试集应涵盖广泛的现实世界话题。

为了确保这一点,团队采用BERTopic中主题建模管道,首先使用OpenAI的嵌入模型(text-embedding-3-small)转换每个提示,使用UMAP降低维度,并使用基于层次结构的模型聚类算法(HDBSCAN)来识别聚类,最后使用GPT-4-turbo进行汇总。

同时确保入选的提示词具有高质量,有七个关键指标来衡量:

  • 具体性:提示词是否要求特定的输出?
  • 领域知识:提示词是否涵盖一个或多个特定领域?
  • 复杂性:提示词是否有多层推理、组成部分或变量?
  • 解决问题:提示词是否直接让AI展示主动解决问题的能力?
  • 创造力:提示词是否涉及解决问题的一定程度的创造力?
  • 技术准确性:提示词是否要求响应具有技术准确性?
  • 实际应用:提示词是否与实际应用相关?
  • 有试卷真题的公众号

    使用GPT-3.5-Turbo和GPT-4-Turbo对每个提示进行从0到7的注释,判断满足多少个条件。然后根据提示的平均得分给每个聚类评分。

    高质量的问题通常与有挑战性的话题或任务相关,比如游戏开发或数学证明。

    新基准测试准吗?

    Arena-Hard目前还有一个弱点:使用GPT-4做裁判更偏好自己的输出。官方也给出了相应提示。

    可以看出,最新两个版本的GPT-4分数高过Claude3Opus一大截,但在人类投票分数中差距并没有那么明显。

    其实关于这一点,最近已经有研究论证,前沿模型都会偏好自己的输出

    研究团队还发现,AI天生就可以判断出一段文字是不是自己写的,经过微调后自我识别的能力还能增强,并且自我识别能力与自我偏好线性相关

    那么使用Claude3来打分会使结果产生什么变化?LMSYS也做了相关实验。

    首先,Claude系列的分数确实会提高。

    但令人惊讶的是,它更喜欢几种开放模型如Mixtral和零一万物Yi,甚至对GPT-3.5的评分都有明显提高。

    总体而言,使用Claude3打分的区分度和与人类结果的一致性都不如GPT-4。

    所以也有很多网友建议,使用多个大模型来综合打分

    除此之外,团队还做了更多消融实验来验证新基准测试的有效性。

    比如在提示词中加入“让答案尽可能详尽”,平均输出长度更高,分数确实会提高。

    但把提示词换成“喜欢闲聊”,平均输出长度也有提高,但分数提升就不明显。

    此外在实验过程中还有很多有意思的发现。

    比如GPT-4来打分非常严格,如果回答中有错误会狠狠扣分;而Claude3即使识别出小错误也会宽大处理。

    对于代码问题,Claude3倾向于提供简单结构、不依赖外部代码库,能帮助人类学习编程的答案;而GPT-4-Turbo更倾向最实用的答案,不管其教育价值如何。

    另外即使设置温度为0,GPT-4-Turbo也可能产生略有不同的判断。

    从层次结构可视化的前64个聚类中也可以看出,大模型竞技场用户的提问质量和多样性确实是高。

    这里面也许就有你的贡献。

    Arena-HardGitHub:

    https://github.com/lm-sys/arena-hardArena-HardHuggingFace:https://huggingface.co/spaces/lmsys/arena-hard-browser大模型竞技场:https://arena.lmsys.org

    参考链接:

    [1]https://x.com/lmsysorg/status/1782179997622649330[2]https://lmsys.org/blog/2024-04-19-arena-hard—完—

    量子位QbitAI·头条号签约

    【WINDRISES MINIPROGRAM PROMOTION】尊享直接对接老板

    电话+V: 192606-48052

    专注于小程序推广配套流程服务方案。为企业及个人客户提供了高性价比的运营方案,解决小微企业和个体拓展客户的问题

    有试卷真题的公众号
    发布人:guojie2 发布时间:2024-09-12