Makine öğrenimi dünyasında "açık ağırlıklar" (open weights) kavramı, modelin önceden eğitilmiş parametrelerinin herkese açık olmasını ifade eder. Ancak bu makale, açık ağırlıkların, modelin kolayca yeniden eğitilebileceği veya ince ayar yapılabileceği anlamına gelmediğini çarpıcı bir şekilde ortaya koyuyor. Yazar, milyarlarca parametreli bir modeli yeniden eğitme (post-train) çabalarında karşılaştığı zorlukları anlatarak, mevcut açık kaynaklı ML altyapısının büyük ölçekli modeller için yetersiz kalabileceğini vurguluyor. Geliştiricilerin, karşılaştıkları hataların genellikle kendi kodlarından kaynaklandığı varsayımını bir kenara bırakmaları gerektiğini belirtiyor; çünkü açık kaynaklı ML altyapısında, destekleniyor gibi görünen ancak aslında çalışmayan özellikler veya büyük modeller için verimsiz uygulamalar bulunabiliyor.
Yazar, Kimi-K2-Thinking gibi açık kaynaklı bir modeli yeniden eğitmek için LLaMA-Factory ve HuggingFace gibi popüler araçları denediğinde ciddi engellerle karşılaşmıştır. LLaMA-Factory'nin model desteği iddialarına rağmen birçok hata içerdiğini ve CPU offloading gibi gereksiz karmaşıklıklar barındırdığını fark etmiştir. HuggingFace'in kapsamlı kütüphanesinde modelin yapılandırma ve modelleme sınıfları bulunsa da, eğitim desteğinin açıkça belirtilmemesi ve aynı mimariye sahip diğer modellerin desteklenmesine rağmen Kimi-K2-Thinking için doğrudan çalışmaması sorun yaratmıştır. Yazar, modelin "Yoda gibi konuşmasını" sağlayacak bir veri seti oluşturarak eğitim sürecini test etmeye çalışmış, ancak temel araçların dahi büyük modeller için beklenen verimliliği ve hatasızlığı sunmadığını görmüştür.
Bu deneyimler, açık ağırlıkların tek başına yeterli olmadığını, büyük dil modellerinin (LLM) gerçek anlamda açık kaynak olabilmesi için sağlam, ölçeklenebilir ve hatasız eğitim altyapılarının da açık ve erişilebilir olması gerektiğini göstermektedir. Yazarın sonunda kendi özel eğitim kod tabanını geliştirmeye karar vermesi, mevcut açık kaynak çözümlerinin devasa modellerin ince ayar ihtiyaçlarını karşılamakta yetersiz kaldığının bir kanıtıdır. Bu durum, "açık kaynak" tanımının sadece model ağırlıklarını değil, aynı zamanda bu modelleri verimli bir şekilde kullanmayı sağlayacak tüm ekosistemi kapsayacak şekilde genişletilmesi gerektiğini düşündürmektedir.
Açık ağırlıklı büyük dil modellerinin bile etkili bir şekilde eğitilmesi ve ince ayar yapılması için özel altyapı ve önemli çaba gerektirmesi, "açık kaynak" kavramının derinliğini sorgulatıyor.