Yapay zeka tabanlı araçların sorun giderme önerileri ile insan uzmanların yaklaşımları arasında dikkat çekici bir fark bulunmaktadır. Mac kullanıcıları, yapay zekadan yardım aldıklarında genellikle Terminal komutlarına yoğun bir şekilde yönlendirilirken, insan uzmanlar genellikle Disk İzlencesi'nin İlk Yardım özelliği gibi grafik kullanıcı arayüzüne (GUI) sahip uygulamaları tercih ederler. Bu durumun temel nedeni, ChatGPT, Claude ve Grok gibi popüler yapay zeka modellerinin, kelimeler için belirteçlere (token) dayalı Büyük Dil Modelleri (LLM) olmasından kaynaklanmaktadır. GUI uygulamalarının kullanımını sözlü olarak ifade etmek nispeten zordur ve yazılı bloglar yerine YouTube'un popülerleşmesiyle bu bir "ölmekte olan sanat" haline gelmiştir.
Komut satırı araçları faydalı olsa da, bu bağlamda bazı dezavantajlara sahiptirler. Öncelikle, çoğu kullanıcı verilen komutları anlamaz ve yapay zeka, açıkça sorulmadıkça bunları nadiren açıklar. Bu durum, kullanıcının yalnızca anlaşılmaz komutlar listesi öğrenmesine, ancak konuya dair herhangi bir anlayış veya içgörü kazanmamasına yol açar. İkinci olarak, komutlar genellikle uygulamalarda bulunan güvenlik önlemlerinden yoksundur, bu da daha kolay hasara veya yanlış yönlendirmeye neden olabilir. Üçüncüsü, komutlar, bir dosyaya yönlendirildiğinde bile aşırı büyük çıktılar üretebilir. Son olarak, komutları Terminal'e yapıştırmak, şüphelenmeyen kullanıcıları kötü amaçlı yazılım yüklemeye ikna etmenin popüler bir yolu haline gelmiştir.
Makale, ChatGPT'nin kötü amaçlı yazılım tespiti konusundaki yanıltıcı tavsiyelerini örnek olarak sunar. ChatGPT, "Apple'ın dahili güvenlik günlükleri" diye bir şeyden bahsetse de, bu günlükler aslında mevcut değildir ve önerilen log show komutu Birleşik günlüğe erişir. Ayrıca, verilen predicate (koşul) amaca uygun değildir ve 30 günlük süre absürt derecede uzundur. ChatGPT'nin 2019'dan beri varsayılan kabuk olan zsh yerine bash için komutlar vermesi de güncel olmayan bilgiler sunduğunu gösterir. Bu örnekler, yapay zekanın güvenle verdiği iddiaların bile ileri düzey kullanıcıları yanıltabileceğini ortaya koymaktadır.
Yapay zeka modellerinin, bilgi sunuş biçimleri ve önerileri konusunda insan uzmanlardan farklı yaklaşımlar sergilemesi, özellikle teknik sorun giderme süreçlerinde kullanıcılar için potansiyel riskler ve yanlış anlamalar barındırabilir.