Bir kullanıcı, Python kullanarak oluşturduğu korelasyonlu bir veri setine temel bir doğrusal en küçük kareler (least squares) uyumu uyguladığında şaşırtıcı bir sonuçla karşılaştı. Elde edilen regresyon doğrusu, verinin merkezinden "merkezi" bir şekilde geçmek yerine hafifçe "eğik" görünüyordu. Bu durum, kullanıcının beklentileriyle çelişiyordu, zira genellikle en küçük kareler uyumunun veri kümesinin ortasından geçmesi beklenir.
Kullanıcı, bu durumu daha iyi anlamak için kovaryans matrisini köşegenleştirerek maksimum varyans yönünü veren özvektörü (eigenvector) hesapladı. Bu özvektör, beklendiği gibi verinin genel yönelimini ve merkezini daha doğru bir şekilde temsil ediyordu. Temel farkın, en küçük kareler uyumunun ölçülen değerler ile modele uyan çizgi arasındaki dikey mesafelerin karelerinin toplamını minimize etmesi olduğu belirtildi. Buna karşılık, özvektör varyansı maksimize etmek üzere seçilir. Bu iki yöntemin farklı hedefleri olduğu için, dikey mesafelerin minimize edilmesi, özellikle veriler güçlü bir şekilde korelasyonlu olduğunda, sistemdeki simetriyi bozarak görsel olarak "eğik" veya "önyargılı" görünen bir çizgiye yol açabilir. Bu, en küçük kareler regresyonunun doğası gereği, y eksenindeki hataları minimize etmeye odaklanmasından kaynaklanır ve bu tür verilerde beklenen "merkezi" görünümden sapabilir.
En küçük kareler regresyonunun, veri setinin yapısına bağlı olarak görsel beklentilerden farklı sonuçlar verebileceğini ve istatistiksel yöntemlerin altında yatan matematiksel prensiplerin önemini gösteriyor.