目濡耳染网

势如破竹!标的指数11只成份股涨停,食品ETF(515710)飙涨8.02%!资金跑步进场

  成份股方面,吃喝板块今日掀涨停潮,白酒表现尤为亮眼,酒鬼酒、泸州老窖、老白干酒、口子窖等11股涨停,此外,古井贡酒、山西汾酒飙涨超9%,金徽酒、今世缘大涨超8%,五粮液、洋河股份、贵州茅台等白酒龙头亦集体大涨。食品ETF(515710)标的指数50只成份股全部收红。

  中信证券指出,随着经济刺激政策的逐步加码,10月PMI已重回扩张区间,经济预期有望提振,商务及宴席需求在经过前期的调整后有望修复,当前烟酒终端已经处于库存低位,需求修复或将能快速传导至酒企,龙头白酒价值有待重估。

  资金面上,主力资金大举加码吃喝板块。Wind数据显示,截至收盘,食品饮料板块获主力资金净流入额合计达到139.8亿元,净流入额在30个中信一级行业中高居第2。板块场内热门布局工具食品ETF(515710)昨日亦获资金回流,数据显示,昨日,食品ETF(515710)单日吸金484万元。

势如破竹!标的指数11只成份股涨停,食品ETF(515710)飙涨8.02%!资金跑步进场

  消息面上,美国大选尘埃落定,国内增量政策有望继续出台。而随着国内政策刺激力度的不断增强,国内消费有望得到进一步提振,食品饮料板块盈利有望持续提升。

  估值方面,Wind数据显示,截至昨日收盘,食品ETF(515710)标的指数细分食品指数市盈率为21.39倍,位于近10年来4.31%分位点的低位,中长期配置性价比凸显。

势如破竹!标的指数11只成份股涨停,食品ETF(515710)飙涨8.02%!资金跑步进场

  展望后市,国泰君安表示,政策的积极定调或将提振市场预期。食品饮料板块的价值或被低估,预期企稳回暖带来较大的股价弹性,政策的逐步落地有望助力板块中期维度的业绩改善。

  财信证券表示,目前,受政策刺激,市场情绪升温,市场初期的底部反弹已经完成,食品饮料板块估值有所修复。再往后看,随着增量政策陆续落地发力,边际改善可期。短期建议集中关注业绩估值匹配度较高的标的。

  一键配置吃喝板块核心资产,重点关注食品ETF(515710)。根据中证指数公司统计,食品ETF(515710)跟踪中证细分食品饮料产业主题指数,超6成仓位布局高端、次高端白酒龙头股,近4成仓位兼顾饮料乳品、调味、啤酒等细分板块龙头股,前十权重股包括“茅五泸汾洋”、伊利股份、海天味业、青岛啤酒等。

势如破竹!标的指数11只成份股涨停,食品ETF(515710)飙涨8.02%!资金跑步进场

  注:需要特别提醒的是,近期市场波动可能较大,短期涨跌幅不预示未来表现,基金投资可能产生亏损。请投资者务必根据自身的资金状况和风险承受能力理性投资,高度注意仓位和风险管理。

  文中图片及数据来源于沪深交易所、华宝基金、Wind、雪球等,截至2024年11月7日。风险提示:食品ETF(515710)被动跟踪中证细分食品饮料产业主题指数,该指数基日为2004.12.31,发布于2012.4.11,指数成份股构成根据该指数编制规则适时调整。文中指数成份股仅作展示,个股描述不作为任何形式的投资建议,也不代表管理人旗下任何基金的持仓信息和交易动向。基金管理人评估的该基金风险等级为R3-中风险,适合适当性评级C3(平衡型)及以上投资者。任何在本文出现的信息(包括但不限于个股、评论、预测、图表、指标、理论、任何形式的表述等)均只作为参考,投资人须对任何自主决定的投资行为负责。另,本文中的任何观点、分析及预测不构成对阅读者任何形式的投资建议,亦不对因使用本文内容所引发的直接或间接损失负任何责任。基金投资有风险,基金的过往业绩并不代表其未来表现,基金管理人管理的其他基金的业绩并不构成基金业绩表现的保证,基金投资须谨慎。

" alt="势如破竹!标的指数11只成份股涨停,食品ETF(515710)飙涨8.02%!资金跑步进场" title="势如破竹!标的指数11只成份股涨停,食品ETF(515710)飙涨8.02%!资金跑步进场">
原油:油价小幅走低 交易员评估OPEC+推迟增产的影响

  油价在震荡交易中小幅下挫,此前OPEC+将石油产量恢复时间推迟三个月,但仍计划明年向预期过剩的市场增加产量。

  WTI下跌0.4%,收于每桶68美元附近,盘中大部分时间涨跌互现。布伦特原油回落至每桶72美元附近。

  OPEC+同意推迟原定的增产,现在产量恢复计划将从4月开始,并且以比原计划更慢的速度进行,将于2026年9月完成。

  “延迟解决不了问题,”道明证券大宗商品策略师Daniel Ghali在报告中写道。尽管该组织的计划将在短期为油价提供支撑,但“能源供应风险溢价的拖累仍将持续存在”。

  根据国际能源署数据,即使OPEC+丝毫不增加产量,全球市场在2025年也将面临过剩局面。

  “OPEC+肯定仍处于‘保护价格’模式,”盛宝银行大宗商品策略主管Ole Hansen表示。“希望到明年3月,我们和他们对特朗普政策的影响以及伊朗的石油产量是否受到了额外制裁影响有更清晰的认识”。

  WTI原油期货下跌0.4%,结算价报每桶68.30美元。

  布伦特原油下跌0.3%,结算价报每桶72.09美元。

" alt="原油:油价小幅走低 交易员评估OPEC+推迟增产的影响" title="原油:油价小幅走低 交易员评估OPEC+推迟增产的影响">
反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  使用这种方法,推理成本没有明显提升,但是模型性能更好了。

  这么好用的模型,为啥不发布?

  不划算。

  semianalysis分析,相较于直接发布,Anthropic更倾向于用最好的模型来做内部训练,发布Claude 3.5 Sonnet就够了。

  这多少让人不敢相信。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  但是文章作者之一Dylan Patel也曾是最早揭秘GPT-4架构的人。

  除此之外,文章还分析了最新发布的o1 Pro、神秘Orion的架构以及这些先进模型中蕴藏的新规律。

  比如它还指出,搜索是Scaling的另一维度,o1没有利用这个维度,但是o1 Pro用了。

  网友:它暗示了o1和o1 Pro之间的区别,这也是之前没有被披露过的。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  新旧范式交迭,大模型还在加速

  总体来看,semianalysis的最新文章分析了当前大模型开发在算力、数据、算法上面临的挑战与现状。

  核心观点简单粗暴总结,就是新范式还在不断涌现,AI进程没有减速。

  文章开篇即点明,Scaling law依旧有效。

  尽管有诸多声音认为,随着新模型在基准测试上的提升不够明显,现有训练数据几乎用尽以及摩尔定律放缓,大模型的Scaling Law要失效了。

  但是顶尖AI实验室、计算公司还在加速建设数据中心,并向底层硬件砸更多钱。

  比如AWS斥巨资自研了Trainium2芯片,花费65亿美元为Anthropic准备40万块芯片。

  Meta也计划在2026年建成耗电功率200万千瓦的数据中心。

  很明显,最能深刻影响AI进程的人们,依旧相信Scaling Law。

  为什么呢?

  因为新范式在不断形成,并且有效。这使得AI开发还在继续加速。

  首先在底层计算硬件上,摩尔定律的确在放缓,但是英伟达正在引领新的计算定律。

  8年时间,英伟达的AI芯片计算性能已经提升了1000倍。

  同时,通过芯片内部和芯片之间的并行计算,以及构建更大规模的高带宽网络域可以使得芯片更好在网络集群内协同工作,特别是推理方面。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  其次在数据方面也出现了新的范式。

  已有公开数据消耗殆尽后,合成数据提供了新的解决途径。

  比如用GPT-4合成数据训练其他模型是很多实验团队都在使用的技术方案。

  而且模型越好,合成数据质量就越高。

  也就是在这里,Claude 3.5 Opus不发布的内幕被曝光。

  它承担了为Claude 3.5 Sonnet合成训练数据、替代人类反馈的工作。

  事实证明,合成数据越多,模型就越好。更好的模型能提供更好的合成数据,也能提供更好的偏好反馈,这能推动人类开发出更好的模型。

  具体来看,semianalysisi还举了更多使用综合数据的例子。

  包括拒绝采样、模式判断、长上下文数据集几种情况。

  比如Meta将Python代码翻译成PHP,并通过语法解析和执行来确保数据质量,将这些额外的数据输入SFT数据集,解释为何缺少公共PHP代码。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  比如Meta还使用Llama 3作为拒绝采样器,判断伪代码,并给代码进行评级。一些时候,拒绝抽样和模式判断一起使用。这种方式成本更低,不过很难实现完全自动化。

  在所有拒绝抽样方法中,“判官”模型越好,得到数据集的质量就越高。

  这种模式,Meta今年刚刚开始用,而OpenAI、Anthropic已经用了一两年。

  在长上下文方面,人类很难提供高质量的注释,AI处理成为一种更有效的方法。

  然后在RLHF方面,专门收集大量的偏好数据难且贵。

  对于Llama 3,DPO(直接偏好优化)比PPO(最近策略优化)更有效且稳定,使用的计算也少。但是使用DPO就意味着偏好数据集是非常关键的。

  如OpenAI等大型公司想到的一种办法是从用户侧收集,有时ChatGPT会给出2个回答并要求用户选出更喜欢的一个,因此免费收集了很多反馈。

  还有一种新的范式是让AI替人类进行反馈——RLAIF。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  它主要分为两个阶段。第一阶段模型先根据人类编写的标准对自己的输出进行修改,然后创建出一个修订-提示对的数据集,使用这些数据集通过SFT进行微调。

  第二阶段类似于RLHF,但是这一步完全没有人类偏好数据。

  这种方法最值得关注的一点是,它可以在许多不同领域扩展。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  最后,值得重点关注的一个新范式是通过搜索来扩展推理计算。

  文章中表明,搜索是扩展的另一个维度。OpenAI o1没有利用这个维度,但是o1 Pro用了。

  o1在测试时阶段不评估多条推理路径,也不进行任何搜索。

  Self-Consistency / Majority Vote就是一种搜索方法。

  这种方法中,只需在模型中多次运行提示词,产生多个相应,根据给定的样本数量,从相应中选出出现频率最高的来作为正确答案。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  除此之外,文章还进一步分析了为什么说OpenAI的Orion训练失败也是不准确的。

  本文作者:量子位,来源:量子位,原文标题:《反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练》

  风险提示及免责条款

  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

" alt="反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练" title="反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练">
广州出台29条改革措施提升通关服务

广州出台29条改革措施提升通关服务

风热感冒吃什么药效果好 5 中国旅游必去十大景点