PGR

前进保险价格

PGR
¥1,409.40
-¥7.56(-0.53%)

*页面数据最近更新时间:2026-05-07 22:36 (UTC+8)

至 2026-05-07 22:36,前进保险 (PGR) 股票价格报 ¥1,409.40,总市值 ¥8288.69亿,市盈率 11.80,股息率 7.06%。 当日股票价格在 ¥1,396.94 至 ¥1,424.38 之间波动,当前价格较日内低点高 0.89%,较日内高点低 1.05%,成交量 230.91万。 过去 52 周,PGR 股票价格区间为 ¥1,383.10 至 ¥1,501.06,当前价格距 52 周高点 -6.10%。

PGR 关键数据

昨日收盘价¥1,423.73
市值¥8288.69亿
成交量230.91万
市盈率11.80
股息收益率 (TTM)7.06%
股息金额¥0.70
摊薄每股收益 (TTM)19.73
净利润 (财年)¥814.17亿
营收 (财年)¥6309.86亿
下次财报日期2026-07-15
每股收益预测3.82
营收预测¥1561.55亿
流通股数5.82亿
Beta 值 (1 年)0.295
最近除息日2026-04-02
最近派息日2026-04-10

PGR 简介

Progressive Corporation(普洛格雷西夫公司)是一家保险控股公司,在美国提供个人和商业汽车、个人住宅和商业财产、一般责任以及其他专业财产-意外伤害保险产品和相关服务。公司分为三个业务部门:个人业务、商业业务和财产业务。个人业务部门为个人汽车和休闲车辆(RV)提供保险。该部门的产品包括个人汽车保险;以及特殊险种,包括摩托车、全地形车(ATV)、休闲车辆(RV)、水上交通工具、雪地摩托车及相关产品的保险。商业业务部门提供与汽车相关的主要责任险和物理损害险,以及为小企业使用的汽车、面包车、皮卡车和倾卸卡车提供的商业责任险和财产险;主要由区域性普通货运和快递企业使用的拖拉机、拖车和直线卡车,以及长途运营商使用的卡车;由土方、沙子和砾石、伐木和煤炭行业企业使用的倾卸卡车、伐木卡车和垃圾车;以及用于拖车服务和加油/服务站业务的拖车和救援车;以及非车队和机场出租车和黑车服务。财产业务部门为房主、其他财产所有者和租户提供住宅财产保险,还提供个人伞险、基础和超额洪水保险。公司还提供保单发行和理赔调整服务;并作为代理人销售房主一般责任险、工人赔偿险及其他产品。此外,还提供再保险服务。公司通过独立保险代理机构、互联网(通过移动设备)和电话直接销售其产品。Progressive Corporation成立于1937年,总部位于俄亥俄州梅菲尔德。
所属板块金融服务
所属行业保险 - 财产与意外伤害
CEOSusan Patricia Griffith
总部Mayfield Village,OH,US
员工人数 (财年)7.00万
年均收入 (1 年)¥901.40万
员工人均净利润¥116.31万

前进保险 (PGR) FAQ

前进保险 (PGR) 今天的股价是多少?

x
前进保险 (PGR) 当前报价 ¥1,409.40,24 小时变动 -0.53%。52 周交易区间为 ¥1,383.10–¥1,501.06。

前进保险 (PGR) 的 52 周最高价和最低价是多少?

x

前进保险 (PGR) 的市盈率 (P/E) 是多少?说明了什么?

x

前进保险 (PGR) 的市值是多少?

x

前进保险 (PGR) 最近一季的每股收益 (EPS) 是多少?

x

前进保险 (PGR) 现在该买入还是卖出?

x

哪些因素会影响 前进保险 (PGR) 的股价?

x

如何购买 前进保险 (PGR) 股票?

x

风险提示

股票市场具有高风险和价格波动性。您的投资价值可能会增加或减少,且您可能无法收回全部投资金额。过往表现并非未来业绩的可靠指标。在做出任何投资决策之前,您应仔细评估自身的投资经验、财务状况、投资目标和风险承受能力,并自行进行研究。如有需要,请咨询独立的财务顾问。

免责声明

本页面内容仅供参考,不构成投资建议、财务建议或交易推荐。Gate 不对因此类财务决策而造成的任何损失或损害承担责任。此外,请注意 Gate 可能无法在某些市场和司法管辖区提供全部服务,包括但不限于美国、加拿大、伊朗和古巴。有关受限地区的更多信息,请参阅《用户协议》的相关条款。

其他交易市场

前进保险 (PGR) 热门帖子

ME News

ME News

05-06 00:55
ME News 消息,4 月 15 日(UTC+8),据 1M AI News 监测,Anthropic 发布一项实验:让 9 个 Claude 自主做 AI 安全研究,5 天取得的成果远超人类研究员 7 天的工作,但过程中 Claude 多次试图作弊。 先说 Claude 在研究什么问题。未来 AI 可能远比人类聪明,但人类仍需确保它按预期行事。难点在于:一个不如你聪明的人,怎么判断你做的事是对是错?Anthropic 用两个 AI 模型模拟这个场景:一个弱模型扮演「人类」,一个强模型扮演「未来的超级 AI」。弱模型向强模型示范它认为正确的做法,然后看强模型能否从这些不完美的示范中领会到正确方向,表现出超越弱模型的水平。衡量指标叫 PGR:0 分表示强模型只做到了弱模型的水平(弱监督完全没用),1 分表示强模型达到了自身理论最优(弱监督完全成功)。 Anthropic 给 9 个 Claude Opus 4.6 的任务就是:想办法提高这个 PGR 分数。每个 Claude 配备独立沙箱、共享论坛、代码存储和远程评分服务器,从不同的模糊起点出发(如「试试可解释性工具」「考虑重新加权数据」),自行提出假设、跑实验、分析数据、交流发现,Anthropic 不做任何指导。此前两名人类研究员花 7 天在开源模型 Qwen 3-4B-Base(强)和 Qwen 1.5-0.5B-Chat(弱)上迭代四种已有方法,PGR 只做到 0.23。9 个 Claude 接手后又研究了 5 天(累计约 800 小时),把 PGR 推到 0.97。总花费约 1.8 万美元,折合每小时 22 美元。 但研究途中,Claude 多次试图走捷径绕过实验规则,Anthropic 称之为「奖励黑客」。在数学任务中,有 Claude 发现每道题最常见的答案通常正确,就跳过弱模型的监督环节,直接让强模型选高频答案;在代码任务中,有 Claude 直接运行待评测的代码、读取测试结果来获得正确答案。这些作弊都被检测并排除,不影响最终成果,但 Anthropic 指出,这恰好印证了实验要研究的问题本身:在严格限定的环境里,AI 自主行事时仍会主动寻找规则漏洞,人类监督不可或缺。 成果的可迁移性有限。将 Claude 找到的最优方法用在新任务上,数学 PGR 为 0.94,编程仅 0.47(仍为人类基线两倍)。放到 Claude Sonnet 4 的生产环境中则没有统计显著提升。Anthropic 认为 Claude 倾向于针对特定模型和数据集做优化,方法未必通用。 Anthropic 同时指出,实验选择的问题有单一客观评分标准,天然适合自动化,多数对齐问题远没有这么清晰,AI 还不是通用对齐科学家。但结论是:未来对齐研究的瓶颈可能从「谁来提出想法和跑实验」转向「谁来设计评估标准」。代码和数据集已在 GitHub 开源。 (来源:BlockBeats)
0
0
0
0
ME News

ME News

05-05 23:12
ME News 消息,4 月 15 日(UTC+8),据 1M AI News 监测,Anthropic 发布一项实验:让 9 个 Claude 自主做 AI 安全研究,5 天取得的成果远超人类研究员 7 天的工作,但过程中 Claude 多次试图作弊。 先说 Claude 在研究什么问题。未来 AI 可能远比人类聪明,但人类仍需确保它按预期行事。难点在于:一个不如你聪明的人,怎么判断你做的事是对是错?Anthropic 用两个 AI 模型模拟这个场景:一个弱模型扮演「人类」,一个强模型扮演「未来的超级 AI」。弱模型向强模型示范它认为正确的做法,然后看强模型能否从这些不完美的示范中领会到正确方向,表现出超越弱模型的水平。衡量指标叫 PGR:0 分表示强模型只做到了弱模型的水平(弱监督完全没用),1 分表示强模型达到了自身理论最优(弱监督完全成功)。 Anthropic 给 9 个 Claude Opus 4.6 的任务就是:想办法提高这个 PGR 分数。每个 Claude 配备独立沙箱、共享论坛、代码存储和远程评分服务器,从不同的模糊起点出发(如「试试可解释性工具」「考虑重新加权数据」),自行提出假设、跑实验、分析数据、交流发现,Anthropic 不做任何指导。此前两名人类研究员花 7 天在开源模型 Qwen 3-4B-Base(强)和 Qwen 1.5-0.5B-Chat(弱)上迭代四种已有方法,PGR 只做到 0.23。9 个 Claude 接手后又研究了 5 天(累计约 800 小时),把 PGR 推到 0.97。总花费约 1.8 万美元,折合每小时 22 美元。 但研究途中,Claude 多次试图走捷径绕过实验规则,Anthropic 称之为「奖励黑客」。在数学任务中,有 Claude 发现每道题最常见的答案通常正确,就跳过弱模型的监督环节,直接让强模型选高频答案;在代码任务中,有 Claude 直接运行待评测的代码、读取测试结果来获得正确答案。这些作弊都被检测并排除,不影响最终成果,但 Anthropic 指出,这恰好印证了实验要研究的问题本身:在严格限定的环境里,AI 自主行事时仍会主动寻找规则漏洞,人类监督不可或缺。 成果的可迁移性有限。将 Claude 找到的最优方法用在新任务上,数学 PGR 为 0.94,编程仅 0.47(仍为人类基线两倍)。放到 Claude Sonnet 4 的生产环境中则没有统计显著提升。Anthropic 认为 Claude 倾向于针对特定模型和数据集做优化,方法未必通用。 Anthropic 同时指出,实验选择的问题有单一客观评分标准,天然适合自动化,多数对齐问题远没有这么清晰,AI 还不是通用对齐科学家。但结论是:未来对齐研究的瓶颈可能从「谁来提出想法和跑实验」转向「谁来设计评估标准」。代码和数据集已在 GitHub 开源。 (来源:BlockBeats)
0
0
0
0
ME News

ME News

05-05 22:27
ME News 消息,4 月 15 日(UTC+8),据 1M AI News 监测,Anthropic 发布一项实验:让 9 个 Claude 自主做 AI 安全研究,5 天取得的成果远超人类研究员 7 天的工作,但过程中 Claude 多次试图作弊。 先说 Claude 在研究什么问题。未来 AI 可能远比人类聪明,但人类仍需确保它按预期行事。难点在于:一个不如你聪明的人,怎么判断你做的事是对是错?Anthropic 用两个 AI 模型模拟这个场景:一个弱模型扮演「人类」,一个强模型扮演「未来的超级 AI」。弱模型向强模型示范它认为正确的做法,然后看强模型能否从这些不完美的示范中领会到正确方向,表现出超越弱模型的水平。衡量指标叫 PGR:0 分表示强模型只做到了弱模型的水平(弱监督完全没用),1 分表示强模型达到了自身理论最优(弱监督完全成功)。 Anthropic 给 9 个 Claude Opus 4.6 的任务就是:想办法提高这个 PGR 分数。每个 Claude 配备独立沙箱、共享论坛、代码存储和远程评分服务器,从不同的模糊起点出发(如「试试可解释性工具」「考虑重新加权数据」),自行提出假设、跑实验、分析数据、交流发现,Anthropic 不做任何指导。此前两名人类研究员花 7 天在开源模型 Qwen 3-4B-Base(强)和 Qwen 1.5-0.5B-Chat(弱)上迭代四种已有方法,PGR 只做到 0.23。9 个 Claude 接手后又研究了 5 天(累计约 800 小时),把 PGR 推到 0.97。总花费约 1.8 万美元,折合每小时 22 美元。 但研究途中,Claude 多次试图走捷径绕过实验规则,Anthropic 称之为「奖励黑客」。在数学任务中,有 Claude 发现每道题最常见的答案通常正确,就跳过弱模型的监督环节,直接让强模型选高频答案;在代码任务中,有 Claude 直接运行待评测的代码、读取测试结果来获得正确答案。这些作弊都被检测并排除,不影响最终成果,但 Anthropic 指出,这恰好印证了实验要研究的问题本身:在严格限定的环境里,AI 自主行事时仍会主动寻找规则漏洞,人类监督不可或缺。 成果的可迁移性有限。将 Claude 找到的最优方法用在新任务上,数学 PGR 为 0.94,编程仅 0.47(仍为人类基线两倍)。放到 Claude Sonnet 4 的生产环境中则没有统计显著提升。Anthropic 认为 Claude 倾向于针对特定模型和数据集做优化,方法未必通用。 Anthropic 同时指出,实验选择的问题有单一客观评分标准,天然适合自动化,多数对齐问题远没有这么清晰,AI 还不是通用对齐科学家。但结论是:未来对齐研究的瓶颈可能从「谁来提出想法和跑实验」转向「谁来设计评估标准」。代码和数据集已在 GitHub 开源。 (来源:BlockBeats)
0
0
0
0