MarkTechPost'a göre, yakın zamanda yayınlanan bir araştırma makalesinde, Stanford Üniversitesi ve Cornell Üniversitesi'ndeki araştırmacılar, büyük dil modellerinin son derece yüksek eğitim maliyetiyle başa çıkmak için bir yöntem önerdiler. Örnek olarak ekip, Wikipedia'nın 55 milyon sayfasında çıkarım yapmanın 100.000 dolardan fazlaya veya 1.000 kelime öbeği başına 0,002 dolardan fazlaya mal olduğunu söylüyor. Araştırmacıların önerdiği yöntem, her bir belge üzerinde doğrudan çıkarım yapmaya kıyasla, çıkarım sonuçlarının kalitesini artırırken çıkarım maliyetini 110 kat azaltabilir. EVAPORATE olarak adlandırılan prototip sistem, LLM'ler tarafından desteklenmektedir ve sistem uygulaması için iki farklı strateji tanımlanmıştır. İlk strateji, LLM'den değerleri doğrudan belgeden çıkarmasını istemektir. İkinci strateji, LLM sentezini çıkarılan kodu yürütmeye zorlamaktır. Ekip, iki yaklaşımı değerlendirdi ve aralarında bir maliyet-kalite ödünleşimi buldu. Kod sentezi daha ucuz olsa da, her belgeyi doğrudan LLM ile işlemekten daha az doğrudur. Kaliteyi artırmak ve maliyetleri düşük tutmak için ekip ayrıca EVAPORATE-CODE+ adı verilen genişletilmiş bir kod sentezi uygulaması önerir.