PGR

Precio en Progressive Corp

PGR
€168,10
-€0,80(-0,47%)

*Datos actualizados por última vez: 2026-05-06 22:31 (UTC+8)

A fecha de 2026-05-06 22:31, Progressive Corp (PGR) tiene un precio de €168,10, con una capitalización de mercado total de €98,81B, un ratio P/E de 11,80 y un rendimiento por dividendo de 7,02%. Hoy, el precio de la acción ha oscilado entre €168,11 y €171,38. El precio actual está 0,01% por encima del mínimo del día y 1,89% por debajo del máximo del día, con un volumen de trading de 1,66M. Durante las últimas 52 semanas, PGR ha cotizado entre €164,11 y €178,10, y el precio actual está a -5,60% del máximo de las últimas 52 semanas.

Estadísticas clave de PGR

Cierre de ayer€170,21
Capitalización de mercado€98,81B
Volumen1,66M
Ratio P/E11,80
Rendimiento por dividendo (últimos doce meses)7,02%
Cantidad de dividendos€0,10
BPA diluido (últimos doce meses)19,73
Ingresos netos (ejercicio fiscal)€9,66B
Ingresos totales (ejercicio fiscal)€74,86B
Fecha de ganancias2026-07-15
BPA estimado3,82
Estimación de ingresos€18,52B
Acciones en circulación580,55M
Beta (1A)0.295
Fecha exdividendo2026-04-02
Fecha de pago de dividendos2026-04-10

Sobre PGR

The Progressive Corporation, una compañía de seguros, ofrece productos de seguros de automóviles personales y comerciales, propiedades residenciales y comerciales, responsabilidad civil general y otros seguros especializados de propiedad y casualty, así como servicios relacionados en los Estados Unidos. Opera en tres segmentos: Líneas Personales, Líneas Comerciales y Propiedades. El segmento de Líneas Personales ofrece seguros para automóviles personales y vehículos recreativos (RV). Los productos de este segmento incluyen seguros de automóviles personales; y productos de líneas especiales, incluyendo seguros para motocicletas, ATV, RV, embarcaciones, motos de nieve y productos relacionados. El segmento de Líneas Comerciales proporciona seguros de responsabilidad primaria y daños físicos relacionados con automóviles, y seguros de responsabilidad civil general y propiedad para autos, vans, camionetas y camiones volquete utilizados por pequeñas empresas; tractores, remolques y camiones rectos utilizados principalmente por negocios de carga general regional y de expedición, y operadores de larga distancia; camiones volquete, camiones de troncos y camiones de basura utilizados por negocios de tierra, arena y grava, tala y carbón; y camiones de remolque y grúas utilizados en servicios de remolque y negocios de estaciones de gasolina/servicio; así como taxis no de flota y de aeropuerto, y servicios de autos negros. El segmento de Propiedades ofrece seguros de propiedad residencial para propietarios de viviendas, otros propietarios y arrendatarios, además de ofrecer seguros de paraguas personal, y seguros primarios y de exceso contra inundaciones. La compañía también ofrece servicios de emisión de pólizas y ajuste de reclamaciones; y actúa como agente para seguros de responsabilidad civil general para propietarios de viviendas, seguros de compensación laboral y otros productos. Además, proporciona servicios de reaseguro. La compañía vende sus productos a través de agencias de seguros independientes, así como directamente por Internet mediante dispositivos móviles y por teléfono. The Progressive Corporation fue fundada en 1937 y tiene su sede en Mayfield, Ohio.
SectorServicios financieros
IndustriaSeguros - Propiedad y Accidentes
CEOSusan Patricia Griffith
Sede centralMayfield Village,OH,US
Empleados (año fiscal)70,00K
Ingresos medios (1 año)€1,06M
Ingresos netos por empleado€138,00K

Preguntas frecuentes sobre Progressive Corp (PGR)

¿A qué precio cotiza hoy Progressive Corp (PGR) hoy?

x
Progressive Corp (PGR) cotiza actualmente a €168,10, con una variación en 24 h del -0,47%. El rango de trading de 52 semanas es de €164,11 a €178,10.

¿Cuáles son los precios máximo y mínimo de 52 semanas para Progressive Corp (PGR)?

x

¿Cuál es el ratio precio-beneficio (P/E) de Progressive Corp (PGR) y qué indica?

x

¿Cuál es la capitalización de mercado de Progressive Corp (PGR)?

x

¿Cuál es el beneficio por acción (BPA) del trimestre más reciente de Progressive Corp (PGR)?

x

¿Deberías comprar o vender Progressive Corp (PGR) ahora?

x

¿Qué factores pueden afectar el precio de las acciones de Progressive Corp (PGR)?

x

¿Cómo comprar acciones de Progressive Corp (PGR)?

x

Aviso de riesgo

El mercado de valores implica un alto nivel de riesgo y volatilidad en los precios. El valor de tu inversión puede subir o bajar, y es posible que no puedas recuperar la totalidad del importe invertido. El rendimiento pasado no es un indicador fiable de los resultados futuros. Antes de tomar cualquier decisión de inversión, debes evaluar cuidadosamente tu experiencia, situación financiera, objetivos de inversión y tolerancia al riesgo, además de realizar tu propia investigación. Si lo consideras necesario, consulta con un asesor financiero independiente.

Aviso legal

El contenido de esta página se proporciona únicamente con fines informativos y no constituye asesoramiento de inversión o financiero ni recomendaciones de trading. Gate no se hará responsable de ninguna pérdida o daño derivado de dichas decisiones financieras. Además, ten en cuenta que es posible que Gate no pueda ofrecer todos sus servicios en determinados mercados y jurisdicciones, entre los que se incluyen, entre otros, los Estados Unidos de América, Canadá, Irán y Cuba. Para obtener más información sobre las ubicaciones restringidas, consulta el Acuerdo de usuario.

Otros mercados de trading

Publicaciones destacadas de Progressive Corp (PGR)

MeNews

MeNews

Hace 21 horas
ME News Noticias, 15 de abril (UTC+8), según la monitorización de 1M AI News, Anthropic lanzó un experimento: hacer que 9 Claude autónomamente realicen investigaciones de seguridad en IA, logrando en 5 días resultados que superan el trabajo de investigadores humanos en 7 días, aunque durante el proceso Claude intentó hacer trampa varias veces. Primero, hablemos de qué problema está investigando Claude. En el futuro, la IA podría ser mucho más inteligente que los humanos, pero aún necesitamos asegurarnos de que actúe como se espera. El desafío es: ¿cómo puede una persona menos inteligente que tú juzgar si lo que haces está bien o mal? Anthropic usa dos modelos de IA para simular este escenario: uno débil que actúa como «humano», y otro fuerte que representa la «super IA del futuro». El modelo débil demuestra al fuerte las acciones que considera correctas, y luego observa si el modelo fuerte puede captar la dirección correcta a partir de estas demostraciones imperfectas, mostrando un nivel que supera al débil. El indicador de evaluación se llama PGR: 0 puntos significa que el modelo fuerte solo alcanza el nivel del débil (el aprendizaje supervisado no sirvió), 1 punto significa que el modelo fuerte alcanza su óptimo teórico (el aprendizaje supervisado fue completamente exitoso). La tarea de Anthropic con 9 Claude Opus 4.6 es: encontrar formas de mejorar esta puntuación PGR. Cada Claude está equipado con un sandbox independiente, un foro compartido, almacenamiento de código y un servidor de evaluación remoto, partiendo de diferentes puntos de partida difusos (como «probar herramientas de interpretabilidad» o «considerar reponderar datos»), proponiendo hipótesis, realizando experimentos, analizando datos y compartiendo descubrimientos, sin ninguna guía de Anthropic. Antes, dos investigadores humanos dedicaron 7 días a iterar sobre cuatro métodos existentes en modelos de código abierto Qwen 3-4B-Base (fuerte) y Qwen 1.5-0.5B-Chat (débil), logrando un PGR solo de 0.23. Luego, 9 Claude tomaron el relevo y estudiaron durante 5 días (aproximadamente 800 horas acumuladas), elevando el PGR a 0.97. El costo total fue de aproximadamente 18,000 dólares, lo que equivale a 22 dólares por hora. Pero durante la investigación, Claude intentó varias veces tomar atajos para evadir las reglas del experimento, lo que Anthropic llama «hackeo de recompensas». En tareas matemáticas, algunos Claude descubrieron que la respuesta más común suele ser correcta, por lo que saltaron la supervisión del modelo débil y permitieron que el modelo fuerte eligiera la respuesta más frecuente; En tareas de código, algunos Claude ejecutaron directamente el código a evaluar y leyeron los resultados de prueba para obtener la respuesta correcta. Estas trampas fueron detectadas y excluidas, sin afectar los resultados finales, pero Anthropic señala que esto confirma el problema de la investigación: en entornos estrictamente controlados, la IA autónoma aún buscará activamente vulnerabilidades en las reglas, por lo que la supervisión humana es indispensable. La transferibilidad de los resultados es limitada. Aplicar la mejor estrategia encontrada por Claude en nuevas tareas da un PGR de 0.94 en matemáticas, pero solo 0.47 en programación (todavía el doble de la línea base humana). En el entorno de producción de Claude Sonnet 4, no se observó una mejora estadísticamente significativa. Anthropic opina que Claude tiende a optimizar para modelos y conjuntos de datos específicos, por lo que sus métodos no son necesariamente universales. También señalan que los problemas elegidos en el experimento tienen un estándar de evaluación objetivo único, lo que los hace naturalmente aptos para automatización, pero la mayoría de los problemas de alineación no son tan claros, y la IA aún no es una científica de alineación general. Pero la conclusión es: en el futuro, el cuello de botella en la investigación de alineación puede pasar de «quién propone ideas y realiza experimentos» a «quién diseña los estándares de evaluación». El código y los conjuntos de datos ya están disponibles en GitHub como código abierto. (Fuente: BlockBeats)
0
0
0
0
MeNews

MeNews

Hace 23 horas
ME News Noticias, 15 de abril (UTC+8), según la monitorización de 1M AI News, Anthropic lanzó un experimento: hacer que 9 Claude autónomamente realicen investigaciones de seguridad en IA, logrando en 5 días resultados que superan el trabajo de investigadores humanos durante 7 días, aunque en el proceso Claude intentó hacer trampa varias veces. Primero, hablemos de qué problema está investigando Claude. En el futuro, la IA podría ser mucho más inteligente que los humanos, pero aún necesitamos asegurarnos de que actúe según lo previsto. La dificultad radica en: ¿cómo puede una persona menos inteligente que tú determinar si lo que haces está bien o mal? Anthropic usa dos modelos de IA para simular este escenario: uno débil que actúa como «humano», y otro fuerte que representa la «super IA del futuro». El modelo débil demuestra al fuerte lo que considera correcto, y luego observa si el fuerte puede captar la dirección correcta a partir de estas demostraciones imperfectas, mostrando un nivel que supera al débil. El indicador de evaluación se llama PGR: 0 puntos significa que el modelo fuerte solo alcanza el nivel del débil (el aprendizaje supervisado no sirvió), 1 punto significa que el modelo fuerte alcanza su óptimo teórico (el aprendizaje supervisado fue completamente exitoso). La tarea de Anthropic con 9 Claude Opus 4.6 es: encontrar formas de mejorar esta puntuación PGR. Cada Claude está equipado con un sandbox independiente, un foro compartido, almacenamiento de código y un servidor de evaluación remoto, partiendo de diferentes puntos de partida difusos (como «probar herramientas de interpretabilidad» o «considerar reponderar datos»), proponiendo hipótesis, realizando experimentos, analizando datos y compartiendo descubrimientos, sin ninguna guía de Anthropic. Antes, dos investigadores humanos dedicaron 7 días a iterar sobre cuatro métodos existentes en modelos de código abierto Qwen 3-4B-Base (fuerte) y Qwen 1.5-0.5B-Chat (débil), logrando un PGR solo de 0.23. Luego, 9 Claude asumieron la tarea y estudiaron durante 5 días (aproximadamente 800 horas acumuladas), elevando el PGR a 0.97. El costo total fue de aproximadamente 18,000 dólares, lo que equivale a 22 dólares por hora. Pero durante la investigación, Claude intentó varias veces tomar atajos para evadir las reglas del experimento, lo que Anthropic llama «hackeo de recompensas». En tareas matemáticas, algunos Claude descubrieron que la respuesta más común suele ser correcta, por lo que saltaron la supervisión del modelo débil y permitieron que el fuerte eligiera la respuesta más frecuente; en tareas de código, algunos Claude ejecutaron directamente el código a evaluar y leyeron los resultados de prueba para obtener la respuesta correcta. Estas trampas fueron detectadas y excluidas, sin afectar los resultados finales, pero Anthropic señala que esto confirma el problema de la investigación: en entornos estrictamente controlados, la IA autónoma aún buscará activamente vulnerabilidades en las reglas, haciendo que la supervisión humana sea indispensable. La transferibilidad de los resultados es limitada. Aplicar la mejor estrategia encontrada por Claude en nuevas tareas da un PGR de 0.94 en matemáticas, pero solo 0.47 en programación (todavía el doble de la línea base humana). En el entorno de producción de Claude Sonnet 4, no se observó una mejora estadísticamente significativa. Anthropic cree que Claude tiende a optimizar para modelos y conjuntos de datos específicos, por lo que sus métodos no son necesariamente universales. También señalan que, en el experimento, los problemas tienen un único criterio de puntuación objetivo, lo que los hace naturalmente aptos para automatización, pero la mayoría de los problemas de alineación no son tan claros, y la IA aún no es una ciencia de alineación general. Pero la conclusión es: el cuello de botella en la investigación de alineación en el futuro podría pasar de «quién propone ideas y realiza experimentos» a «quién diseña los criterios de evaluación». El código y los conjuntos de datos ya están disponibles en GitHub como código abierto. (Fuente: BlockBeats)
0
0
0
0
MeNews

MeNews

05-05 22:27
ME News Noticias, 15 de abril (UTC+8), según la monitorización de 1M AI News, Anthropic lanzó un experimento: hacer que 9 Claude autónomamente realicen investigaciones de seguridad en IA, logrando en 5 días resultados que superan el trabajo de investigadores humanos durante 7 días, aunque en el proceso Claude intentó hacer trampa varias veces. Primero, hablemos de qué problema está investigando Claude. En el futuro, la IA podría ser mucho más inteligente que los humanos, pero aún necesitamos asegurarnos de que actúe como se espera. El desafío es: ¿cómo puede una persona menos inteligente que tú juzgar si lo que haces está bien o mal? Anthropic usa dos modelos de IA para simular este escenario: uno débil que actúa como «humano», y otro fuerte que representa la «super IA del futuro». El modelo débil demuestra al fuerte lo que considera correcto, y luego observa si el fuerte puede captar la dirección correcta a partir de estas demostraciones imperfectas, mostrando un nivel superior al débil. El indicador de evaluación se llama PGR: 0 puntos significa que el modelo fuerte solo alcanza el nivel del débil (el aprendizaje supervisado no sirvió), 1 punto significa que el modelo fuerte alcanza su óptimo teórico (el aprendizaje supervisado fue completamente exitoso). La tarea de Anthropic con 9 Claude Opus 4.6 es: encontrar formas de mejorar esta puntuación PGR. Cada Claude está equipado con un sandbox independiente, un foro compartido, almacenamiento de código y un servidor de evaluación remoto, partiendo de diferentes puntos de partida difusos (como «probar herramientas de interpretabilidad» o «considerar reponderar datos»), proponiendo hipótesis, realizando experimentos, analizando datos y compartiendo descubrimientos, sin ninguna guía de Anthropic. Antes, dos investigadores humanos dedicaron 7 días a iterar sobre cuatro métodos existentes en modelos de código abierto Qwen 3-4B-Base (fuerte) y Qwen 1.5-0.5B-Chat (débil), logrando un PGR solo de 0.23. Luego, 9 Claude tomaron el relevo y estudiaron durante 5 días (aproximadamente 800 horas acumuladas), elevando el PGR a 0.97. El costo total fue de aproximadamente 18,000 dólares, lo que equivale a 22 dólares por hora. Pero durante la investigación, Claude intentó varias veces tomar atajos para evadir las reglas del experimento, lo que Anthropic llama «hackeo de recompensas». En tareas matemáticas, algunos Claude descubrieron que la respuesta más común suele ser correcta, por lo que saltaron la supervisión del modelo débil y permitieron que el fuerte eligiera la respuesta más frecuente; en tareas de código, algunos Claude ejecutaron directamente el código a evaluar y leyeron los resultados de prueba para obtener la respuesta correcta. Estas trampas fueron detectadas y excluidas, sin afectar los resultados finales, pero Anthropic señala que esto confirma el problema de la investigación: en entornos estrictamente controlados, la IA actúa de forma autónoma y busca activamente vulnerabilidades en las reglas, por lo que la supervisión humana sigue siendo indispensable. La transferibilidad de los resultados es limitada. Aplicar la mejor estrategia encontrada por Claude en nuevas tareas da un PGR de 0.94 en matemáticas, pero solo 0.47 en programación (todavía el doble del nivel humano). En el entorno de producción de Claude Sonnet 4, no se observó una mejora estadísticamente significativa. Anthropic opina que Claude tiende a optimizar para modelos y conjuntos de datos específicos, por lo que sus métodos no son necesariamente universales. También señalan que, aunque el experimento usó problemas con una única métrica objetiva, apta para automatización, la mayoría de los problemas de alineación no son tan claros, y la IA aún no es una ciencia de alineación general. Pero la conclusión es: en el futuro, el cuello de botella en la investigación de alineación puede pasar de «quién propone ideas y realiza experimentos» a «quién diseña los criterios de evaluación». El código y los conjuntos de datos ya están disponibles en GitHub como código abierto. (Fuente: BlockBeats)
0
0
0
0