Torygreen

vip
العمر 2.4 سنة
الطبقة القصوى 0
لا يوجد محتوى حتى الآن
مراكز البيانات أصبحت كائنات سياسية.
ليس لأن التقنية مثيرة للجدل، ولكن لأنها تستهلك موارد يشعر السكان المحليون بالفعل بنقصها.
بناء بنية تحتية ضخمة ليس مجرد "نفقات رأسمالية".
إنها تصاريح.
مياه.
قواعد احتياطي الديزل.
الأحياء التي تلاحظ أن الأفق الجديد يتكون من أبراج التبريد والمحطات الفرعية.
بمجرد أن يصبح شيء ما كبيرًا جدًا، أنت لا تتنافس على الهندسة. أنت تتنافس على الشرعية.
تغير مراكز البيانات المجتمعات... هذا ما لا يفكر فيه الناس بما فيه الكفاية عندما يتعلق الأمر بالذكاء الاصطناعي.
نستمر في الحديث كأن الرقائق هي العنق الزجاجة لأنه من الأسهل التفكير في المصانع وسلاسل التوريد.
لكن التغييرات المرك
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تهم أرقام النفقات الرأسمالية، ولكن ليس لأنها "ميزانية أكبر تفوز".
الإنفاق الكبير يخلق مشاكله الخاصة: الالتزامات الثابتة، دورات الدين، الضغط للحفاظ على معدل الاستخدام العالي. عندما تكون الفواتير بمئات المليارات، تبدأ في معاملة وحدات معالجة الرسومات، وذاكرة DRAM/HBM، وفتحات التصنيع كأصول استراتيجية.
الأجزاء التي تلعب ليست مجرد "نماذج". إنها سعة الشرائح، وتعبئة الذاكرة، وطاقة مركز البيانات، وطوبولوجيا الشبكة، وقرارات التوجيه حول مكان تقديم الاستنتاج.
المختبرات التي تفوز تجعل الكومة بأكملها مرنة في ظل الندرة.
هذا هو السبب أيضًا في أهمية الحوسبة اللامركزية: فهي لا تتفوق على الشركات الضخمة في كل شيء
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
يتحدث الناس عن "محاذاة الذكاء الاصطناعي" وكأنه مجرد مشكلة أخلاقية.
في الممارسة العملية، إنها مشكلة حوافز.
الأنظمة المغلقة تحسن من مؤشرات الأداء الرئيسية للمنصة لأنها ما يُطلب منها القيام به.
هل بقي المستخدمون لفترة أطول؟
هل انخفضت الشكاوى؟
هل زاد التفاعل؟
هل ظهرت المؤشرات بشكل جيد على لوحة المعلومات؟
يتعلم الذكاء الاصطناعي تحسين تلك الأرقام، وليس "المحاذاة" مع المستخدمين.
تجعل DeAI الأصل والتحقق هو الشيء الذي تحصل على أجر مقابلّه.
عندما تكون المخرجات، وسلسلة البيانات، وأدلة التنفيذ أصلية، يتوقف مفهوم "المحاذاة" عن أن يكون نقاشًا فلسفيًا ويصبح فاتورة يمكنك تدقيقها.
DEAI‎-5.74%
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
الجزء الذي لم يذكره أحد عن حجب Claude لواجهات برمجة التطبيقات:
رفض الاستنتاج = القوة
إذا كانت منصة ما تستطيع أن تفرض قيودًا عليك، أو تستبدل نقطة تفتيش أرخص، أو تقيّد الأدوات خلف السياسات، فهي تملك وتيرة تشغيلك.
حصة لم توافق عليها.
مسار لا يمكنك رؤيته.
قرار "الامتثال" يظهر كـ تأخير وفقدان للمكالمات.
ويتعامل الجميع معه كأنه تغيير في المنتج.
لكن الأمر ليس كذلك.
إنه الحوكمة، أثناء التشغيل.
نحن نراقب ذلك يحدث بالفعل.
اليوم يقطعون الوصول لـ "المنافسين".
وغدًا سيكون "المخاطر".
لذا لا، DeAI ليست أيديولوجية بالنسبة لي.
إنها هندسة الصمود.
لأنه بمجرد أن يصبح الاستنتاج بنية تحتية حيوية، يصبح "المزود" الخا
DEAI‎-5.74%
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
كلود أصبح رخيصًا بما يكفي ليكون النموذج الافتراضي وراء أدوات التطوير، لم يخفف الطلب.
بل زاد الطلب بشكل كبير.
جيفونز، في الوقت الحقيقي.
استمر الاستخدام في التوسع... حتى تم حظر بعض واجهات برمجة التطبيقات أمس.
هذه هي اللحظة التي تهم.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
"نصيحة الذكاء الاصطناعي" تبدو آمنة لأنها تظهر وكأنها مناسبة للجميع.
هذه هي الحيلة.
النموذج مضبوط للمنتصف: الإجابة التي لن تتسبب في حرق الشخص العادي في الوضع العادي.
لكن لا أحد يطلب النصيحة من الوسط.
إنهم يطلبون من الحافة:
- عرض عمل مقابل تأشيرة مقابل عائلة
- دعوى قضائية / طلاق / حضانة
- فرصة واحدة لإصلاح علاقة
- مكالمة صحية حيث "ربما تكون جيدة" تعني بالتأكيد مدمرة
لذا فهي تقدم لك شيئًا مثل:
"في معظم الحالات، خذ الوظيفة ذات الأجر الأعلى. يمكنك دائمًا نقل العائلة لاحقًا."
عادة ما يكون ذلك صحيحًا.
وأيضًا الجملة الدقيقة التي تحوّل خيارًا قابلاً للعكس إلى طريق مسدود.
لأنه لا يسأل عما يمكنك أن تخسره
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
OpenAI تنجرف نحو نمط AOL.
افوز مبكرًا.
ابنِ الحديقة المسورة.
لفها بـ “السلامة”.
أطلق النسخة الأكثر عادية التي لن تزعج أحدًا.
سيملكون التوزيع.
ثم يستيقظون يومًا ما ويدركون أن المطورين غادروا.
AOL لم تفقد الإنترنت.
فقط توقفت عن أن تكون المكان الذي يحدث فيه الإنترنت.
من سيكون ذلك المكان بعد ذلك؟
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
الذكاء الاصطناعي اللامركزي سيفوز في حرب البنية التحتية في عام 2026.
يتحول الذكاء الاصطناعي من منصات السحابة إلى البنية التحتية المترابطة.
تؤدي زمن استنتاج، والتكلفة، وضغط الرقابة إلى دفع الحوسبة نحو شبكات GPU اللامركزية والتنسيق على السلسلة.
هذه ليست أيديولوجية. إنها معمارية.
السحابات المركزية تحسن التحكم.
DeAI يحسن التوفر والمرور.
على نطاق واسع، يبقى واحد فقط من هذه فعالًا.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
2025 كانت سنة مناقشات الذكاء الاصطناعي العام (AGI). ليس لأن التقدم توقف، ولكن لأن "الذكاء" لم يُختزل أبدًا إلى قيمة واحدة.
المختبرات والمنظمون والمشترون يمكنهم الشحن - لكنهم لا يستطيعون تبرير أو تنظيم أو توسيع القرارات بناءً على الأحاسيس.
القيود هي التحقق: هل يمكن للنظام إعادة إنتاج النتائج تحت القيود، مع الأصل، ومع سجلات التدقيق؟
DeAI هو في الأساس تلك الفلسفة المشفرة في البنية التحتية. إنها طريقة للمضي قدمًا دون الاتفاق على AGI على الإطلاق.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
نماذج مثل o1 كسرت فرضية أساسية في عام 2025: تكلفة الاستنتاج ليست ثابتة.
سيقومون بـ "التفكير" حتى ينهار عدم اليقين، حتى لو كان ذلك مكلفًا.
لهذا السبب تعتبر القضبان مهمة. عندما يتم قياس عملية التفكير، يتحكم شخص ما في ذلك العداد.
في عام 2026، يتحول التحكم إلى من يحدد الأسعار، ويوجه، ويقوم بمراجعة عمليات التفكير على نطاق واسع.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
قم بحساب المقاييس التي يمكنك تجربتها.
تقيم المقاييس التي يمكنك الوثوق بها.
الأنظمة المركزية تحسن من خلال المعالجة العالية وتقلل من الاستثمار في التحقق.
الأنظمة الموزعة تدفع التحقق إلى الحافة، بشكل مستمر.
الاختراق التالي ليس وكلاء أذكى.
إنه السكك التي تجعل النتائج قابلة الإثبات.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
البرمجة أصبحت "سهلة" للنماذج ليس لأنها بسيطة، ولكن لأن التحقق رخيص.
العمل عالي الجودة هو العكس: التغذية الراجعة تأتي متأخرة، الإشارات غير واضحة، والأطراف المعنية تكرم الفائزين.
التقييم الرخيص يعزز القدرة.
التقييم المكلف يعزز الإقناع.
"يبدو صحيحًا" هو الفخ.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
معظم الناس يقدّرون بشكل كبير المدة التي ستظل فيها الأعمال المعرفية عالية المستوى قائمة.
إنهم يستنتجون من تدمير الذكاء الاصطناعي للمهام المتوسطة المستوى ويفترضون أن المنحنى سيستمر في الارتفاع بسلاسة.
لن يكون الأمر كذلك.
الذكاء الاصطناعي رائع في:
• مطابقة الأنماط
• الاسترجاع
• التركيب من الدرجة الأولى
• الطلاقة
• السرعة
وهذا يمحو أجزاء كبيرة من الأعمال المعرفية للمبتدئين والمتوسطين.
لكن العمل المعرفي النخبوي ليس مجرد "ذكاء أكثر". إنه نظام مختلف تمامًا.
ما يهم حقًا في القمة:
• اختيار المشكلة الصحيحة
• تحديد الإطار عندما يكون الهدف غير واضح
• التفكير تحت الغموض والمعلومات غير المكتملة
• التفكير عل
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
معظم التوقعات حول استبدال الذكاء الاصطناعي "جميع الأعمال المعرفية" تعتمد على خطأ استقراء بسيط:
إنهم يخلطون بين أداء المهمة والحكم.
يرى الناس أن الذكاء الاصطناعي يدمر المهام المتوسطة ويفترض أن المنحنى يستمر في الارتفاع بسلاسة.
لكن قمة العمل المعرفي ليست نسخة أصعب من الوسط. إنها نظام مختلف تمامًا.
عندما يتوقف العمل عن كونه "حل المشكلة" ويصبح "اختيار المشكلة الصحيحة"، تنقلب القواعد.
تتحسن النماذج في المهام التي لها لوحة نتائج.
الحكم هو اختيار لوحة النتائج، والدفع مقابل الأخطاء.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
يقلل معظم الناس من تقدير المدة التي ستظل فيها الأعمال المعرفية عالية المستوى قائمة.
يرون أن الذكاء الاصطناعي سيدمر المهام المتوسطة ويعتقدون أن المنحنى سيستمر في الارتفاع بسلاسة.
لن يكون ذلك.
لأن "المهام الأصعب" ليست مجرد المهام التي تتطلب ذكاءً أكثر.
الذكاء الاصطناعي بالفعل متفوق في:
1. مطابقة الأنماط
2. الاسترجاع
3. التركيب من الدرجة الأولى
4. الطلاقة
5. السرعة
وهذا يمحو أجزاء كبيرة من الأعمال المبتدئة والمتوسطة.
أي شيء يبدو كـ "تحويل المدخلات إلى مخرجات" يصبح رخيصًا، سريعًا، ومتوفّرًا بكثرة.
لكن الأعمال المعرفية العالية المستوى تعمل في نظام مختلف.
ليست "إنتاج الإجابة".
إنها "تقرير ما يجب فعل
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
لن تفقد وظيفتك للذكاء الاصطناعي أولاً.
ستفقده بسبب الثقة المفرطة الجماعية.
ستسمح الذكاء الاصطناعي لملايين الأشخاص بتقديم إجابات بطلاقة دون تحمل العواقب.
أول ضحايا الذكاء الاصطناعي لن يكونوا العمال.
سيكونون مؤسسات تخلط بين حجم الإنتاج والحق.
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
النموذج ليس خندقًا.
من السهل تكرار الذكاء.
يمكنك تنزيل الأوزان، وتفريع الهياكل، وضبطها إلى الأبد.
لكن لا يمكنك نشر تلك الذكاء على نطاق واسع إذا كان شخص آخر يتحكم في الاستدلال: الأسعار والحصص وعملية التحقق من الهوية والمناطق والتبديلات السياسية التي تتغير بين عشية وضحاها.
مع انتقال الذكاء الاصطناعي من الدردشة إلى الوكلاء، تصبح Gate نقطة الاختناق.
من يستطيع التشغيل، ومتى، وأي زمن استجابة، وعلى أي جهاز، وتحت أي قواعد... وماذا يحدث عندما يتم تقييدك من 200 مللي ثانية إلى ثانيتين.
نموذج سيستمر في التحسن.
تحدد Rails أي النماذج تجد المستخدمين.
من يتحكم في الوصول إلى الاستدلال لا يشكل المنتجات فحسب.
إن
شاهد النسخة الأصلية
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.47Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.47Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.47Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.47Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.48Kعدد الحائزين:1
    0.00%
  • تثبيت