OpenAI'ın Codex CLI aracını kullanan bir ChatGPT Pro abonesi, sistemin beklenen GPT modelini kullanmadığını gösteren önemli bir hata bildirdi. Kullanıcı, codex-cli 0.99.0-alpha.10 sürümünü kullanırken hem config.toml dosyasında hem de terminal kullanıcı arayüzünde (TUI) gpt-5.3-codex modelini açıkça yapılandırmasına rağmen, çıktı ve sunucu tarafından gönderilen olay (SSE) yakalamalarının aslında gpt-5.2-2025-12-11 modelinin kullanıldığını ortaya koydu. Bu durum, kullanıcıların daha yeni ve muhtemelen daha yetenekli bir model beklerken farkında olmadan eski bir sürüme yönlendirildiğini gösteriyor.
Hatayı yeniden üretmek için atılan adımlar oldukça net. Kullanıcı, config.toml ve TUI ayarlarını gpt-5.3-codex olarak belirledikten sonra, RUST_LOG='codex_tui::chatwidget=info,codex_api::sse::responses=trace' codex komutunu çalıştırarak bir istem gönderdi. Ardından, oluşturulan log/codex-tui.log dosyasını incelediğinde, eventresponse.created içindeki response.model alanının gpt-5.2-2025-12-11 olarak göründüğünü tespit etti. Beklenen davranış ise sistemin gerçekten gpt-5.3-codex modelini kullanmasıydı. Bu hata, özellikle geliştiricilerin en son yapay zeka modellerinin yeteneklerinden faydalanmak istediği durumlarda, beklenmedik sonuçlara ve performans düşüşlerine yol açabilir.
Bu hata, kullanıcıların belirli bir yapay zeka modelini seçmelerine rağmen sistemin farklı bir model kullanmasıyla sonuçlanan kritik bir yönlendirme sorununu ortaya koyuyor.