LLVM projesi, yapay zeka (YZ) araçlarının kod katkılarında kullanımına yönelik yeni bir politika taslağı sundu. Bu politika, YZ destekli araçların üretkenliği artırma potansiyelini kabul ederken, aynı zamanda projenin kalitesini ve sürdürülebilirliğini korumayı hedefliyor. Temel vurgu, "döngüde insan" prensibi üzerine kurulu. Katkıda bulunanların, YZ araçlarıyla oluşturulan kod veya metni dikkatlice gözden geçirmesi, doğruluğunu teyit etmesi ve içerikle ilgili soruları yanıtlayabilecek kadar iyi anlaması bekleniyor.
Politika, katkıda bulunanların YZ araçlarının çıktısını doğrulama yükümlülüğünü sürdürücülere devretmemesi gerektiğini açıkça belirtiyor. Daha önceki "katkıya sahip çıkma" kavramından, "katkıları gözden geçirme ve soruları yanıtlamaya hazır olma" şeklinde daha somut bir yaklaşıma geçildi. Yeni katkıda bulunanlar için ise, uzmanlıklarını geliştirmek amacıyla küçük ve tam olarak anlayabilecekleri katkılarla başlamaları öneriliyor. Sürdürücü geri bildirimlerini doğrudan bir YZ modeline aktarmanın, ne katkıda bulunanın gelişimine ne de topluluğun sürdürülebilirliğine fayda sağlayacağı düşünülüyor.
Önemli miktarda YZ aracı tarafından oluşturulmuş içerik barındıran katkıların şeffaf bir şekilde etiketlenmesi isteniyor. Bu etiketleme, inceleme sürecini kolaylaştırmayı ve topluluğun yeni araçların rolünü ve en iyi uygulamalarını anlamasına yardımcı olmayı amaçlıyor. Örneğin, commit mesajlarına "Assisted-by:" gibi bir ibare eklenmesi öneriliyor. Bu yaklaşım, YZ'nin yazılım geliştirmedeki rolü artarken, insan uzmanlığının ve sorumluluğunun vazgeçilmezliğini vurguluyor.
Yapay zeka destekli kod geliştirme araçlarının yaygınlaşmasıyla birlikte, açık kaynak projelerinde insan sorumluluğunun ve katkı kalitesinin nasıl korunacağına dair önemli bir model sunuyor.