NVIDIA tarafından sıfırdan eğitilen Nemotron-3-Nano-30B-A3B-BF16, hem akıl yürütme hem de akıl yürütme gerektirmeyen görevler için tasarlanmış birleşik bir büyük dil modelidir (LLM). Model, kullanıcı sorgularına ve görevlerine yanıt verirken öncelikle bir akıl yürütme izi oluşturur ve ardından nihai yanıtı sunar. Bu akıl yürütme yeteneği, sohbet şablonundaki bir bayrak aracılığıyla yapılandırılabilir. Kullanıcı, ara akıl yürütme izleri olmadan doğrudan nihai yanıtı tercih ederse, model bu şekilde yapılandırılabilir; ancak, daha zorlu ve akıl yürütme gerektiren istemlerde doğrulukta hafif bir düşüş yaşanabilir. Tersine, modelin önce akıl yürütme izleri oluşturmasına izin vermek, genellikle sorgulara ve görevlere daha yüksek kaliteli nihai çözümler sunar.
Model, 23 adet Mamba-2 ve MoE katmanı ile 6 adet Dikkat (Attention) katmanından oluşan hibrit bir Mixture-of-Experts (MoE) mimarisi kullanır. Her MoE katmanı, 128 uzman ve 1 paylaşılan uzman içerir; her belirteç (token) için 6 uzman etkinleştirilir. Modelin 3.5 milyar aktif parametresi ve toplamda 30 milyar parametresi bulunmaktadır. İngilizce, Almanca, İspanyolca, Fransızca, İtalyanca ve Japonca dillerini destekler ve Qwen kullanılarak geliştirilmiştir. Bu model ticari kullanıma hazırdır. Nemotron, uzmanlaşmış yapay zeka ajanları oluşturmak için önde gelen verimlilik ve doğruluk sunan, açık ağırlıklara, eğitim verilerine ve tariflere sahip açık modeller ailesidir.
NVIDIA'nın bu yeni modeli, karmaşık görevlerde akıl yürütme yeteneğini önceliklendirerek yapay zeka ajanlarının daha güvenilir ve doğru sonuçlar üretmesinin önünü açıyor.