PPL

คำนวณราคา PPL Corp

price.closed
PPL
฿35.78
+฿0.03(+0.08%)

data.updated

v2.stock.overview v2.daily.trading v2.range.52w

key.stats

yesterday.close฿35.75
market.size฿26.91B
volume.trade3.42M
pe.ratio21.94
div.yield3.08%
div.amount฿0.28
diluted.eps1.62
net.income฿1.18B
revenue฿9.04B
earnings.date2026-07-30
eps.estimate0.36
rev.estimate฿2.19B
shares.out752.98M
beta0.619
ex.div.date2026-03-10
div.pay.date2026-04-01

about.stock

PPL Corporation, a utility holding company, delivers electricity and natural gas in the United States and the United Kingdom. The company operates through two segments: Kentucky Regulated and Pennsylvania Regulated. It serves approximately 429,000 electric and 333,000 natural gas customers in Louisville and adjacent areas in Kentucky; 538,000 electric customers in central, southeastern, and western Kentucky; and 28,000 electric customers in five counties in southwestern Virginia. The company also provides electric services to approximately 1.4 million customers in Pennsylvania; and generates electricity from coal, gas, hydro, and solar sources in Kentucky; and sells wholesale electricity to two municipalities in Kentucky. PPL Corporation was founded in 1920 and is headquartered in Allentown, Pennsylvania.
sectorUtilities
industryRegulated Electric
ceoVincent Sorgi
headquartersAllentown,PA,US
employees300.00
avg.revenue฿30.14M
income.per.emp฿3.93M

stock.faq

stock.price

x
current.stats

52w.range.q

x

pe.ratio.q

x

market.cap.q

x

eps.recent.q

x

buy.sell.q

x

price.factors

x

buy.how

x

risk.warn

risk.notice

disclaimer2

risk.disclosure

other.markets

latest.news

2026-05-13 05:25ทีมของ MIT ของ Kaiming He ปล่อยโมเดลการแพร่กระจายความแตกต่างของภาษา ELF พร้อมโทเคนสำหรับการฝึก 45Bตาม Beating ทีมของ Kaiming He จาก MIT เพิ่งเปิดตัว ELF (Embedded Language Flows) ซึ่งเป็นโมเดลการแพร่กระจายภาษา โดยแตกต่างจากแนวทางออโตรีเกรสซีฟ “คาดเดาโทเค็นถัดไป” ที่ใช้ในโมเดลลักษณะ GPT โดย ELF ทำการสร้างข้อความในพื้นที่ embedding แบบต่อเนื่อง และจะแปลงเป็นโทเค็นแบบไม่ต่อเนื่องเพียงในขั้นสุดท้ายเท่านั้น ในการทดสอบเกณฑ์การสร้างแบบไม่เงื่อนไข (unconditional generation) บน OpenWebText โมเดล ELF-B ขนาด 105M พารามิเตอร์ ทำได้ประมาณ 24.1 ของ perplexity การสร้าง (Gen. PPL) ด้วยการสุ่ม 32 ขั้น แซงหน้าพื้นฐานของโมเดลภาษาการแพร่กระจายแบบไม่ต่อเนื่องและแบบต่อเนื่องหลายตัวอย่างอย่างมีนัยสำคัญ โดยเฉพาะ ELF-B ใช้โทเค็นสำหรับการฝึกเพียงประมาณ 45 พันล้านโทเค็น ซึ่งน้อยกว่าวิธีที่เทียบเคียงกันได้ราวหนึ่งลำดับขนาด (order of magnitude) ทั้งที่โดยทั่วไปมักเกิน 500 พันล้านโทเค็น

กระทู้ร้อนแรงเกี่ยวกับ PPL Corp (PPL)

TheManWalkingOnTheK-Line

TheManWalkingOnTheK-Line

05-13 14:13
13 มกราคม คืนนี้ บิทคอยน์เปิดเผยแนวรับ ดีดตัวลดปริมาณการเทรดลงและถอยหลังออกมา เพิ่มปริมาณการเทรด เมื่อราคาพุ่งขึ้นถึง 81000 ปริมาณการเทรดลดลง ขณะเกิดการเทขาย ปริมาณการซื้อขายไม่แข็งแรง และมีการรวมตัวของผู้ขาย ข้อมูลการไหลออกของทุนจาก Glassnode แสดงให้เห็นว่า ผู้ถือครองระยะสั้น (STH) ทำกำไรในระดับสูงและปล่อยคริปโตไปยังตำแหน่งสูงขึ้น ความกดดันในการขายเพิ่มขึ้น ข่าวสารจาก PPL ในระยะสั้นก็เป็นบวกในเชิงลบ ระยะกลางอาจมีการปรับตัวบางส่วน คำแนะนำในการเทรด: ดีดตัวขึ้นไปยังบริเวณ 80000-80500 แล้วลงไป 🎯: 79000 🎯: 78000 $BTC ‌#Gate广场五月交易分享 #美国4月CPI上涨3.8% #Polymarket每日热点
1
0
0
0
GateNews

GateNews

05-13 05:25
ตาม Beating ทีมของ Kaiming He จาก MIT เพิ่งเปิดตัว ELF (Embedded Language Flows) ซึ่งเป็นโมเดลการแพร่กระจายภาษา โดยแตกต่างจากแนวทางออโตรีเกรสซีฟ “คาดเดาโทเค็นถัดไป” ที่ใช้ในโมเดลลักษณะ GPT โดย ELF ทำการสร้างข้อความในพื้นที่ embedding แบบต่อเนื่อง และจะแปลงเป็นโทเค็นแบบไม่ต่อเนื่องเพียงในขั้นสุดท้ายเท่านั้น ในการทดสอบเกณฑ์การสร้างแบบไม่เงื่อนไข (unconditional generation) บน OpenWebText โมเดล ELF-B ขนาด 105M พารามิเตอร์ ทำได้ประมาณ 24.1 ของ perplexity การสร้าง (Gen. PPL) ด้วยการสุ่ม 32 ขั้น แซงหน้าพื้นฐานของโมเดลภาษาการแพร่กระจายแบบไม่ต่อเนื่องและแบบต่อเนื่องหลายตัวอย่างอย่างมีนัยสำคัญ โดยเฉพาะ ELF-B ใช้โทเค็นสำหรับการฝึกเพียงประมาณ 45 พันล้านโทเค็น ซึ่งน้อยกว่าวิธีที่เทียบเคียงกันได้ราวหนึ่งลำดับขนาด (order of magnitude) ทั้งที่โดยทั่วไปมักเกิน 500 พันล้านโทเค็น
0
0
0
0
BlockBeatNews

BlockBeatNews

05-13 05:20
จากการตรวจสอบ Beating การตรวจจับ MIT ทีมของ何恺明 ได้ปล่อยโมเดลการแพร่กระจายภาษา ELF (Embedded Language Flows) มันไม่ได้ใช้เส้นทางการทำนาย token ถัดไปแบบ GPT แต่เป็นการนำการสร้างข้อความเข้าไปในพื้นที่ embedding ต่อเนื่องจนถึงขั้นสุดท้ายจึงค่อยแปลงกลับเป็น token แบบแยกกัน โมเดลการแพร่กระจายในด้านการสร้างภาพได้พัฒนาไปมากแล้ว แต่เมื่อนำไปใช้กับข้อความยังคงรู้สึกไม่ลงตัว: ภาพเป็นสัญญาณต่อเนื่องตามธรรมชาติ ในขณะที่ภาษาประกอบด้วย token ที่เป็นแบบแยกกัน ก่อนหน้านี้มีโมเดลการแพร่กระจายแบบต่อเนื่องหลายตัวที่ต้องนำ token เข้ามาในเส้นทางการสร้างซ้ำๆ หรือต้องใช้ตัวถอดรหัสแยกต่างหาก วิธีการของ ELF นั้นสะอาดกว่า: ส่วนใหญ่ในขั้นตอนจะเป็นการลดเสียงรบกวนในพื้นที่เวกเตอร์ต่อเนื่อง สุดท้ายจึงใช้เครือข่ายที่แชร์น้ำหนักในการทำให้เป็นแบบแยกกัน ผลการทดลองก็สร้างความประทับใจ ในการประเมินการสร้างข้อความโดยไม่มีเงื่อนไขบน OpenWebText ELF-B ที่มีพารามิเตอร์ 105M ใช้การสุ่มตัวอย่าง 32 ขั้นตอน ทำได้ประมาณ 24.1 ใน Gen. PPL ซึ่งดีกว่ามาตรฐานของโมเดลภาษาแบบแยกและแบบต่อเนื่องหลายแบบ ยิ่งไปกว่านั้น ELF-B ใช้ token การฝึกประมาณ 45B เท่านั้น ในขณะที่วิธีเปรียบเทียบมักเกิน 500B ซึ่งหมายความว่าการฝึกด้วย token น้อยกว่าถึงระดับหนึ่ง ผลลัพธ์นี้อย่างน้อยก็แสดงให้เห็นว่าเส้นทางการแพร่กระจายแบบต่อเนื่องในโมเดลภาษาไม่ได้ถูก "ความเป็นภาษาที่แยกกัน" ขัดขวาง ปัญหาก่อนหน้านี้น่าจะอยู่ที่การออกแบบอินเทอร์เฟซโมเดลและการออกแบบการสุ่มตัวอย่างมากกว่า
0
0
0
0