3.6 İnsan Dostu Açıklamalar
Şimdi daha derine inelim ve insanların "iyi" kabul ettiği açıklamalara ve bunun makine öğrenmesi için ne anlam ifade ettiğine bakalım. Beşeri bilimler bu konuda bize yardımcı olabilir. Bu bölüm, Miller (2017)'ın açıklamalarla ilgili yayınları incelediği geniş çaplı incelemesinin üstüne kuruldu.
Bu bölümde sizi şuna ikna etmeye çalışacağım: İnsanlar, mevcut durumu olayın meydana gelmeyeceği bir durumla karşılaştıran kısa açıklamaları (sadece 1 veya 2 nedenden oluşan) tercih ederler. Özellikle anormal nedenler iyi açıklamalar meydana getirir. Açıklamalar açıklayan ve açıklanan (açıklamayı alıcısı) arasındaki sosyal etkileşimdir ve dolayısıyla sosyal altmetnin açıklamanın içeriğine olan etkisi büyüktür.
Bir tahminin veya davranışın tüm etkenlerini içeren bir açıklamaya ihtiyacınız olduğunda, insan dostu bir açıklama aramak yerine eksiksiz bir nedenlere dayandırma ararsınız. Büyük ihtimalle etki eden tüm nitelikleri belirlemeniz veya modeli düzeltmeniz gerektiğinde nedenlere dayandıran bir açıklamaya ihtiyacınız olur. Böyle bir durumda ileriki maddeler önemsizdir. Açıklamanın alıcısının insanlar ya da sadece zamanı kısıtlı olan insanlar olduğu diğer tüm durumlarda ilerleyen kısımlar ilginizi çekecektir.
3.6.1 Açıklama Nedir?
Açıklama bir neden sorusuna verilen cevaptır (Miller 2017).
- Hastaya uyguladığımız tedavi neden çalışmadı?
- Kredi başvurum neden reddedildi?
- Neden hala uzaylılarla iletişime geçmedik?
İlk iki soru gündelik bir cevapla cevaplanabilirken üçüncüsü "daha genel, bilimsel olaylarla ilgili felsefi sorular" kategorisine girer. Bizim odağımız gündelik açıklamalarda, çünkü yorumlanabilir makine öğrenmesi bu tür açıklamalara ihtiyaç duyuyor. Genellikle "nasıl" ile başlayan sorular "neden" sorularına dönüştürülebilir: "Kredi başvurum nasıl reddedildi?", "Kredi başvurum neden reddedildi?" sorusuna dönüştürülebilir.
İlerleyen kısımlarda "açıklama" kelimesi açıklama yapmanın sosyal ve bilişsel sürecinden ve aynı zamanda bu süreçlerin ürünleriden bahsetmek için kullanılıyor. Açıklamayı yapan bir insan veya bir makine olabilir.
3.6.2 İyi Açıklama Nedir?
Bu kısım Miller'ın "iyi" açıklamalarla ilgiil özetine yoğunlaşıyor ve yorumlanabilir makine öğrenmesine elle tutulur çıkarımlarda bulunuyor.
Açıklamalar karşıtlıkla ilgilidir (Lipton 199010).
İnsanlar genellikle belli bir tahminin neden yapıldığını değil, neden diğer tahminler varken bu tahminin yapıldığını sorar.
Karşıolgusal durumları düşünmeye meyilliyizdir; "Girdi farklı olsaydı tahmin nasıl değişirdi?". Ev fiyatı tahmin ederken, evin sahibi tahmin edilen
fiyatın beklenen düşük fiyatın aksine neden yüksek olduğunu merak eder. Kredi başvurum reddedildiğinde, bir kredi başvurusunun reddedilmesini iyi ya da kötü
etkileyen bütün etkenlerden bahsedilmesini istemem. Başvurumun kabul edilmesi için başvurumda değişmesi gereken nitelikleri önemserim. Benim başvurum ve
kabul edilmeye uygun bir başvuru arasındaki karşıtlığı anlamak isterim. Zıtlıkları ortaya koyan açıklamaların önemli olduğunun fark edilmesi yorumlanabilir
makine öğrenmesi için önemli bir buluştur. Çoğu yorumlanabilir modelden, bir veri için yapılan tahmin ve yapay bir veri için yapılan tahmin ya da
verilerin ortalaması için yapılan tahmin arasındaki karşıtlığı anlatan bir açıklama elde etmek mümkündür. Bir doktor "İlaç neden hastayı iyileştirmedi?" diye
sorabilir ve aynı ilaca olumlu yanıt veren benzer bir hastayı ilaca cevap vermeyen hastayla karşılaştıran bir açıklama arayabilir. Karşıtlıklardan bahseden
açıklamaların anlaşılması bütünsel açıklamaların anlaşılmasından daha kolaydır. İlacın hastada neden işe yaramadığıyla ilgili bütünsel bir açıklama şunları
içerebilir: Hasta 10 yıldır bu hastalığa sahip, 11 gen aşırı ifade edilmiş, hastanın vücudu ilacı etkisiz kimyasallara parçalamada çok hızlı, ... Karşılaştırmalı
açıklamalar çok daha basit olabilir: İlaca olumlu yanıt veren hastanın aksine yanıt vermeyen hasta ilacın etkisiz olmasına neden olan bir gen
kombinasyonuna sahip. En iyi açıklama, eldeki objeyle referans alınan obje arasındaki en büyük farkı vurgulayan açıklamadır.
Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: İnsanlar bir veri için yapılan tahminin
bütünsel açıklamasını istemez, onun yerine bir diğer verinin tahminiyle arasındaki farkları anlamak ister (bu veri yapay olabilir). Karşılaştırmalı
açıklamalar uygulamaya bağlı olarak değişir çünkü karşılaştırma için bir referans noktasına ihtiyaç duyarlar, referans noktası ise açıklanmak istenen
veriye veya açıklamanın yapıldığı kullanıcıya bağlı olarak değişir. Ev fiyatı tahmini sistemini kullanan bir kullanıcı, bir evin fiyat tahminini
kendi evinin fiyatıyla, sistemdeki başka bir evin fiyat tahminiyle veya bölgedeki ortalama ev fiyatıyla karşılaştıran bir açıklama ister. Karşılaştırmalı
açıklamaların otomatik olarak oluşturulabilmesi için veride prototipler veya arketipler bulunması gerekebilir.
Açıklamalar seçilir. İnsanlar bir olayın nedenlerinin gerçek ve eksiksiz bir listesini içeren bir açıklama beklemez. Tüm olası
nedenlerden bir ya da ikisini açıklama için seçmeye alışığızdır. Buna kanıt olarak haber kanallarına bakabilirsiniz: "Hisse senedi fiyatlarının düşüşünde
sorumlu, ürünün yazılım güncellemesine gelen karşı tepki olarak görülüyor."
"Tsubasa ve takımı maçı zayıf defans yüzünden kaybetti: rakiplerine stratejilerini uygulamaları için bolca alan tanıdılar."
"Kurumlara ve devlete karşı artan güvensizlik, seçmen katılımını düşüren ana etkenlerden biri."
Bir olayın birçok farklı nedenle açıklanabilmesine Rashomon Etkisi denir. Rashomon, bir samurayın ölümüyle ilgili alternatif ve
çelişik hikayeler (açıklamalar) anlatan bir Japon filmi. Makine öğrenmesi modelleri için iyi bir tahminin farklı niteliklerden yapılabiliyor olması
bir avantajdır. Farklı nitelikler (farklı açıklamalar) içeren birden fazla modeli bir araya getiren ensemble metotlar genelde iyi performans gösterirler
çünkü farklı "hikayelerin" ortalamasını almak robust ve doğru tahminler yapmayı sağlar. Bu aynı zamanda bir tahminin nasıl yapıldığına dair seçilebilecek
birden çok açıklama olduğunu gösterir.
Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: Dünya çok daha karmaşık olsa da açıklamayı oldukça kısa tut ve
sadece bir - üç neden göster. LIME metodu bu konuda iyi iş çıkarıyor.
Açıklamalar toplumsaldır
. Açıklayan ve alıcı arasındaki konuşmanın veya etkileşimin bir parçasıdırlar. Sosyal bağlam açıklamanın içeriğini ve doğasını belirler. Eğer teknik bilgisi olan birisine dijital kripto para birimlerinin neden çok önemli olduğunu anlatacaksam "Merkezsizleştirilmiş, dağıtık, blokzinciri tabanlı defter merkezi bir varlık tarafından kontrol edilemez ve bu varlıklarını korumak isteyen insanların isteyeceği bir sistemdir; bu da yüksek talebi ve fiyatı açıklar." gibi şeyler söylerim, ama aynı şeyi anneanneme açıklamak istesem "Bak anneanne: Kripto para birimleri bilgisayardaki altın gibi bir şey. İnsanlar altını sever ve onun için büyük miktarda para öderler, genç insanlar ise bilgisayar altınlarını sever ve onun için büyük para öderler."Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: Makine öğrenmesini kullandığınız alanın sosyal çevresine ve hedef kitlesine dikkat etmeniz gerekir. Modelin sosyal kısmını doğru tasarlamak tümüyle yaptığınız uygulamaya bağlı olarak değişir. Beşeri bilimlerden uzmanlar (örneğin psikologlar ve sosyologlar) bu konuda size yardımcı olabilir.
Açıklamalar anormale odalanır.
İnsanlar bir olayı açıklayabilen daha anormal sebepleri normal olanlara tercih ederler (Kahnemann ve Tversky, 198111).
Bu sebepler düşük olasılığa sahip olmalarına rağmen gerçekleşmiş durumlardır. Bu anormal sebeplerin ortadan kalkması
sonucu büyük ölçüde değiştirirdi (karşıolgusal açıklama). İnsanlar bu tür "anormal nedenlerin" iyi açıklamalar
oluşturduğunu düşünürler. Štrumbelj ve Kononenko (2011)12
'den bir örnek şu şekilde: Bir öğretmenin öğrenciyi test ettiği durumları içeren bir veri setimiz olduğunu düşünelim.
Öğrenciler dersi alıyor ve başarıyla sunumu yaptıklarında direkt dersi geçiyorlar. Öğretmenlerin, öğrencinin
bilgisini test etmek için ekstra sorular sorma hakları var. Sorulara cevap vermeyen öğrenciler dersi geçemeyecek.
Her öğrencinin hazırlığı farklı seviyede, yani sorulara cevap verebilme olasılıkları farklı (eğer öğretmen soru
sormuşsa). Bizse bir öğrencinin dersi geçip geçemeyeceğini tahmin etmeye ve bu tahmini açıklamya çalışıyoruz.
Öğretmen ekstra bir soru sormazsa öğrencinin dersi geçme olasılığı %100, eğer öğretmen bir soru sorarsa
öğrencinin dersi geçme olasılığı hazırlık seviyesine bağlı olarak değişiyor.
1. senaryo: Öğretmen genellikle öğrencilere soru sorar (örneğin 100 öğrenciden 95'ine). Hazırlanmamış bir öğrenci
(soruya cevap verebilme olasılığı %10) şanssız duruma düşer ve öğretmenden bir soru gelir, öğrenci doğru cevap veremez. Bu öğrenci neden
dersi geçememiştir? Ben hazırlık yapmadığı için derdim.
2. senaryo: Öğretmen nadiren soru sorar (örneğin 100 öğrenciden 2'sine). Sorulara çalışmamış bir öğrencinin dersi
geçme olasılığını yüksek bir değer olarak tahmin ederdik çünkü soru sorulma olasılığı çok düşük. Tabii ki, öğrencilerden
birisi hazırlığını yapmamış ve soru sorulduğunda cevaplayabilme olasılığı %10. Bu öğrenci yine şanssızdır ve
öğretmen ona bir soru sormaya karar verir, öğrenci cevap veremez ve dolayısıyla dersi geçemez. Bu
başarısızlığın sebebi nedir? Bu durumda daha iyi olan
açıklamanın "dersi geçemedi çünkü öğretmen soru sordu" olduğunu düşünürdüm. Öğretmenin soru sorma olasılığı düşüktü, dolayısıyla
anormal davranış soru sormasıydı.
Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: Eğer modelin girdisi olan
niteliklerden birisi herhangi bir şekilde anormal değer taşıyorsa (kategorik bir verinin çok rastlanmayan bir
değer alması gibi) ve bu nitelik tahmini etkilemişse, diğer "normal" nitelikler de o nitelik
kadar tahmini etkilemişse bile bu durum açıklamada yer almalıdır. Ev fiyatlarının tahmini örneğinde anormal
nitelik görece pahalı bir evin iki balkona sahip olması olabilir. Bir atıf metodu iki balkona sahip olma niteliğinin
fiyatı ortalamanın üstünde ev büyüklüğü, iyi mahalle veya yeni tadilat kadar etkilediğini söylese bile
iki balkona sahip olma anormal niteliği bu evin pahalılığı için en iyi açıklama olacaktır.
Açıklamalar gerçeğe uygundur. İyi açıklamalar gerçek hayatta da doğrudurlar (başka
durumlarda da). Rahatsız edici fakat iyi bir açıklamanın en önemli özelliği gerçekçi olması değil.
Örneğin seçilebilirlik, gerçekçilikten sık sık daha önemli oluyor. Bir ya da iki nedeni seçen açıklamalar
alakalı bütün nedenlerin listesinin çok küçük bir kısmını ele alıyor; seçilebilirlik gerçeğin bir kısmını
ihmal etmek demek oluyor. Örneğin borsanın çökmesine, sadece seçilen bir ya da iki nedenin sebep olduğu doğru değil,
gerçekte insanların davranışlarını borsanın çöküşüne yol açacak şekilde etkileyen milyonlarca neden var.
Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: Açıklamaların olayı olabildiğince gerçeğe yakın açıklaması gerekir,
ve makine öğrenmesinde buna sadakat denir. İki balkona sahip olma bu evin fiyatını arttırıyorsa, diğer (benzer)
evlerin de fiyatını arttırmalıdır. İnsanlara göre açıklamanın sadakati seçilebilirliği, belirttiği karşıtlık ve sosyal bağlamı kadar önemli değildir.
İyi açıklamalar, açıklayıcının önceki inançlarıyla tutarlıdır.
İnsanlar önceki inançlarına ters düşen bilgiyi reddetme eğilimindedir. Bu duruma doğrulama yanlılığı
(Nickerson 199813) denir. Bu önyargı
açıklamalar için de geçerlidir. İnsanlar inançlarıyla uyuşmayan açıklamaları değersiz görüp reddedeceklerdir.
İnançların ne olduğu insandan insana değişse de politik dünya görüşleri gibi grup tabanlı inançlar da vardır.
Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: İyi açıklamalar önceki inançlarlar tutarlıdır.
Bunu makine öğrenmesine katmak zordur ve yüksek ihtimalle tahmin etme performansını yüksek oranda düşürecektir.
Evin büyüklüğünün fiyatına olan etkisine dair önceki inancımız ev büyüdükçe fiyatın artacağı yönündedir.
Varsayalım ki modelimiz birkaç ev için evin büyüklüğünün fiyata negatif etki ettiğini göstersin. Modelin bu açıklamayı öğrenmesinin sebebi
tahmin performansını arttırıyor olmasıdır (bir takım karmaşık ilişkiler yüzünden), fakat bu önceki inançlarımızla çelişir. Bu durumda
monotonluk kısıtları ekleyebilir (bir nitelik tahmini yalnızca bir yönde etkileyebilir) ya da bu özelliğe sahip bir lineer model kullanabilirsiniz.
İyi açıklamalar olasıdır ve genelleştirilebilirler. Birçok olayı açıklayabilen bir neden oldukça geneldir ve iyi bir açıklama olarak nitelendirilir. Bu, anormal nedenlerden iyi açıklamalar oluşturulabileceğiyle çelişir. Benim görüşüm anormal nedenlerin genel nedenleri yendiğidir. Anormal nedenler tanım gereği eldeki senaryo içerisinde gerçekleşme olasılığı düşük durumlardır. Anormal durumun yokluğunda genel bir neden iyi açıklama kabul edilebilir. Aynı zamanda, insanların ortak olasılıkları yanlış yorumlamaya eğilimli olduklarını unutmayın: "Joe bir kütüphane görevlisidir. Joe'nun utangaç bir insan olması mı, yoksa kitap okumayı seven utangaç bir insan olması mı daha yüksek olasılıktır?" İyi bir örnek şu şekildedir: "Bu ev pahalı çünkü büyük" genel bir nedendir ve evlerin neden pahalı veya ucuz olduklarına dair iyi bir açıklamadır. Bunlar yorumlanabilir makine öğrenmesi için ne anlam ifade ediyor: Genelleştirilebilirlik niteliğin desteğiyle kolayca ölçülebilir, ki bu ölçü açıklamaya uyan verilerin toplam veriye bölünmesidir.
Lipton, Peter. “Contrastive explanation.” Royal Institute of Philosophy Supplements 27 (1990): 247-266.↩︎
Kahneman, Daniel, and Amos Tversky. “The simulation heuristic.” Stanford Univ CA Dept of Psychology. (1981).↩︎
Štrumbelj, Erik, and Igor Kononenko. “A general method for visualizing and explaining black-box regression models.” In International Conference on Adaptive and Natural Computing Algorithms, 21–30. Springer. (2011).↩︎
Nickerson, Raymond S. “Confirmation Bias: A ubiquitous phenomenon in many guises.” Review of General Psychology 2 (2). Educational Publishing Foundation: 175. (1998).↩︎