目濡耳染网

中邮人寿披露9亿永续债发行计划 年内险企发债规模已超千亿

  根据《关于保险公司发行无固定期限资本债券有关事项的通知》等资本债券发行监管制度要求,永续债最大发行规模不得超过净资产100%,且永续债余额不得超过核心资本的30%。

  数据显示,中邮人寿2024年1季度旧准则净资产257亿元,扣减资本补充债余额160亿元,中邮人寿还有97亿元额度,未超核心资本406亿元的30%。

  中邮人寿表示,其是按照2024年1季度旧准则净资产情况,拟按95亿元向监管申请发行额度。

  据了解,永续债、资本补充债均是保险机构外源性资本补充方式。不同的是,资本补充债能够补充附属一级资本,提升综合偿付能力充足率,而永续债则能够补充核心二级资本,提升核心偿付能力充足率。

  对外经济贸易大学创新与风险管理研究中心副主任龙格表示,保险公司永续债与保险公司资本补充债券的主要区别在期限设定、偿付顺序、资本认定、税务处理几个方面。

  龙格解释到,在期限设定方面,资本补充债通常具有明确的到期期限,需按期还本付息。永续债则无固定到期日,可视为一种权益工具而非传统债务;在偿付顺序方面,资本补充债在清偿顺序上优先于永续债和其他次级债务,永续债的偿付通常排在更后的位置,具有更强的次级属性;在资本认定方面,资本补充债可能部分或全部计入附属资本,永续债往往被视为更接近于核心一级资本的工具,有助于显著提升保险公司的偿付能力充足率。此外,资本补充债与永续债在税务上的处理也存在差异,具体取决于当地税法规定。

  “偿二代二期”实施、低利率环境双重因素激起险企发债需求

  今年以来,保险公司已发行超千亿元债券用以补充资本。

  据统计,截至2024年12月6日,已有中国人寿、人保财险、新华保险、中英人寿、泰康人寿、平安产险、太保寿险、利安人寿、中银三星人寿、平安人寿等12家保险公司发行资本补充债或永续债,合计发债规模1106亿元。

中邮人寿披露9亿永续债发行计划 年内险企发债规模已超千亿

  据了解,保险公司发债进行资本补充需求旺盛与“偿二代二期”工程落地实施有关。

  “偿二代二期”工程落地以来,保险公司核心偿付能力充足率及综合偿付能力充足率均出现不同程度的降低。

  国家金融监督管理总局数据显示,截至2023年末,保险公司平均综合及核心偿付能力充足率分别为196.5%、127.8%,相较2021年末分别减少35.5个、91.9个百分点,其中,财产险公司分别为236.5%和204.3%,人身险公司分别为186.2%和110.3%。

  麦肯锡报告指出,虽然“偿二代二期”规则对夯实资本质量、优化资本风险计量起到了积极的作用,但也为保险公司资本管理带来较大调整。尤其是在当前利率走低、投资市场波动的环境下,保险公司资本管理的矛盾更加凸显。

  对于“偿二代二期”工程的实施,原银保监会表示,允许在部分监管规则上分步到位,最晚于2025年起全面执行到位。

  因此,国泰君安非银首席分析师刘欣琦指出,随着过渡期政策结束,预计大量保险公司会选择通过发债融资的方式缓解资本压力。

  此外,保险公司大量发行债券还与低利率水平有关。

  中邮人寿表示,目前利率水平有利于募集永续债,当前货币政策整体持续宽松,市场上流动性较为充裕,5年期、10年期国债及5年期、10年期国开债收益率均处于相对低位,尽早启动发行永续债相关工作,可抓住相对较好的债券市场发行窗口。

  但也有业内人士指出,低利率环境让险企有更高的意愿去发债,但利率持续下行的预期也会让险企在发债方面存在一定疑虑。

  该业内人士解释到,因为大家都预计国内长端利率会进一步下行,特别是在美欧央行持续降息的背景下。如果未来利率再往下走,那在未来某个时点发债对于险企而言所负担的成本就更低,所以险企不会着急锁定目前看似“很低”的发债利率,因为未来很可能更低。

  此外,北京工商大学中国保险研究院副院长兼秘书长宁威向21世纪经济报道记者,债券融资对险企发展很重要,债券融资对偿付能力提升有比较好的促进作用,能够在短期内改善偿付能力指标。从中长期来看,由于债券属于负债,发债企业将会产生固定的利息成本支出,会给企业中长期营业盈利能力带来一定考验。当企业发行的债券和负债达到一定规模后,其再融资压力就会变大。

" alt="中邮人寿披露9亿永续债发行计划 年内险企发债规模已超千亿" title="中邮人寿披露9亿永续债发行计划 年内险企发债规模已超千亿">

  法国石油巨头道达尔能源试图利用这一潜力,早在2021年就斥资25亿美元收购了Adani Green Energy的20%股份。看到机会的不止道达尔能源一家。在阿达尼被起诉导致股票抛售之前,投资者一直预期该公司的收入和利润到2030年将大幅增长。

  这家印度开发商目前拥有15.5GW的在运资产组合,主要是10.1GW已投运光伏,其余是风光混合项目和陆上风电。该公司的目标是到本十年末将可再生能源装机规模扩大至50GW。

  Adani Green Energy的业务模式基于获得稳定可预期的现金流,其92%的装机容量签订了25年左右的长期购电协议。

  这些交易包括国有火电发电商NTPC和Solar Energy Corporation of India等主权对手方。然而,美国检察官称这些是Adani Group试图通过贿赂获得的合同类型,但Adani Group否认了上述指控。 

" alt="报告:美国提出的行贿指控考验Adani Green的增长预期" title="报告:美国提出的行贿指控考验Adani Green的增长预期">
BOSS直聘-W根据首次公开发售后股份计划在市场上购买约39.06万股A类普通股

  BOSS直聘-W(02076)发布公告,于2024年11月22日,由公司内部资源拨付,计划受托人根据首次公开发售后股份计划的条款及条件在公开市场上购买合共约39.06万股A类普通股(以19.53万股美国存托股的形式),并以信托方式为合资格参与者持有该等股份,所购买每股A类普通股的平均代价约6.39美元。

" alt="BOSS直聘-W根据首次公开发售后股份计划在市场上购买约39.06万股A类普通股" title="BOSS直聘-W根据首次公开发售后股份计划在市场上购买约39.06万股A类普通股">
反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  使用这种方法,推理成本没有明显提升,但是模型性能更好了。

  这么好用的模型,为啥不发布?

  不划算。

  semianalysis分析,相较于直接发布,Anthropic更倾向于用最好的模型来做内部训练,发布Claude 3.5 Sonnet就够了。

  这多少让人不敢相信。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  但是文章作者之一Dylan Patel也曾是最早揭秘GPT-4架构的人。

  除此之外,文章还分析了最新发布的o1 Pro、神秘Orion的架构以及这些先进模型中蕴藏的新规律。

  比如它还指出,搜索是Scaling的另一维度,o1没有利用这个维度,但是o1 Pro用了。

  网友:它暗示了o1和o1 Pro之间的区别,这也是之前没有被披露过的。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  新旧范式交迭,大模型还在加速

  总体来看,semianalysis的最新文章分析了当前大模型开发在算力、数据、算法上面临的挑战与现状。

  核心观点简单粗暴总结,就是新范式还在不断涌现,AI进程没有减速。

  文章开篇即点明,Scaling law依旧有效。

  尽管有诸多声音认为,随着新模型在基准测试上的提升不够明显,现有训练数据几乎用尽以及摩尔定律放缓,大模型的Scaling Law要失效了。

  但是顶尖AI实验室、计算公司还在加速建设数据中心,并向底层硬件砸更多钱。

  比如AWS斥巨资自研了Trainium2芯片,花费65亿美元为Anthropic准备40万块芯片。

  Meta也计划在2026年建成耗电功率200万千瓦的数据中心。

  很明显,最能深刻影响AI进程的人们,依旧相信Scaling Law。

  为什么呢?

  因为新范式在不断形成,并且有效。这使得AI开发还在继续加速。

  首先在底层计算硬件上,摩尔定律的确在放缓,但是英伟达正在引领新的计算定律。

  8年时间,英伟达的AI芯片计算性能已经提升了1000倍。

  同时,通过芯片内部和芯片之间的并行计算,以及构建更大规模的高带宽网络域可以使得芯片更好在网络集群内协同工作,特别是推理方面。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  其次在数据方面也出现了新的范式。

  已有公开数据消耗殆尽后,合成数据提供了新的解决途径。

  比如用GPT-4合成数据训练其他模型是很多实验团队都在使用的技术方案。

  而且模型越好,合成数据质量就越高。

  也就是在这里,Claude 3.5 Opus不发布的内幕被曝光。

  它承担了为Claude 3.5 Sonnet合成训练数据、替代人类反馈的工作。

  事实证明,合成数据越多,模型就越好。更好的模型能提供更好的合成数据,也能提供更好的偏好反馈,这能推动人类开发出更好的模型。

  具体来看,semianalysisi还举了更多使用综合数据的例子。

  包括拒绝采样、模式判断、长上下文数据集几种情况。

  比如Meta将Python代码翻译成PHP,并通过语法解析和执行来确保数据质量,将这些额外的数据输入SFT数据集,解释为何缺少公共PHP代码。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  比如Meta还使用Llama 3作为拒绝采样器,判断伪代码,并给代码进行评级。一些时候,拒绝抽样和模式判断一起使用。这种方式成本更低,不过很难实现完全自动化。

  在所有拒绝抽样方法中,“判官”模型越好,得到数据集的质量就越高。

  这种模式,Meta今年刚刚开始用,而OpenAI、Anthropic已经用了一两年。

  在长上下文方面,人类很难提供高质量的注释,AI处理成为一种更有效的方法。

  然后在RLHF方面,专门收集大量的偏好数据难且贵。

  对于Llama 3,DPO(直接偏好优化)比PPO(最近策略优化)更有效且稳定,使用的计算也少。但是使用DPO就意味着偏好数据集是非常关键的。

  如OpenAI等大型公司想到的一种办法是从用户侧收集,有时ChatGPT会给出2个回答并要求用户选出更喜欢的一个,因此免费收集了很多反馈。

  还有一种新的范式是让AI替人类进行反馈——RLAIF。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  它主要分为两个阶段。第一阶段模型先根据人类编写的标准对自己的输出进行修改,然后创建出一个修订-提示对的数据集,使用这些数据集通过SFT进行微调。

  第二阶段类似于RLHF,但是这一步完全没有人类偏好数据。

  这种方法最值得关注的一点是,它可以在许多不同领域扩展。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  最后,值得重点关注的一个新范式是通过搜索来扩展推理计算。

  文章中表明,搜索是扩展的另一个维度。OpenAI o1没有利用这个维度,但是o1 Pro用了。

  o1在测试时阶段不评估多条推理路径,也不进行任何搜索。

  Self-Consistency / Majority Vote就是一种搜索方法。

  这种方法中,只需在模型中多次运行提示词,产生多个相应,根据给定的样本数量,从相应中选出出现频率最高的来作为正确答案。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

  除此之外,文章还进一步分析了为什么说OpenAI的Orion训练失败也是不准确的。

  本文作者:量子位,来源:量子位,原文标题:《反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练》

  风险提示及免责条款

  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

" alt="反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练" title="反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练">