Mahkemede karar almayı geliştirmek için yapay zeka kullanılmalı mı? Yeni bir çalışma makalesine göre, yapay zeka algoritmasının tek bir örneği adli aramaların doğruluğunu artırmakta başarısız olmakla kalmıyor, aynı zamanda teknoloji tek başına insanlardan daha kötü durumda.
Hükümet ve istatistik profesörü ortak yazar Kosuke Imai, “Birçok araştırmacı, algoritmanın mı yoksa yapay zekanın mı önyargılı olduğuna odaklandı” dedi. “Aslında incelemedikleri şey, yapay zeka kullanımının insan kararını nasıl etkilediğidir.”
Ceza adaleti, tıp ve hatta iş dünyası da dahil olmak üzere çeşitli sektörler yapay zeka önerilerini kullansa da, nihai karar vericiler genellikle insanlardır. Araştırmacılar, tek bir hakimin verdiği cezai kefalet kararlarını yapay zeka sistemi tarafından oluşturulan tavsiyelerle karşılaştırarak bunu dikkate aldı. Yapay zekanın nakit kefaletin uygulanıp uygulanmayacağı üzerindeki etkisi özellikle analiz edildi.
%30 — hakimin AI tavsiyelerini reddettiği vakaların yüzdesi
Randomize kontrollü çalışma, Wisconsin'deki Dane County'de gerçekleştirildi ve tutukluların kendi taahhütleriyle serbest bırakılıp bırakılmadığına veya nakit kefaletle serbest bırakılıp bırakılmadığına odaklanıldı. Imai ve Bilim Hukuk Fakültesi'nin Saygıdeğer S. William Green Kamu Hukuku Profesörü Jim Greiner liderliğindeki araştırmacılar, gözlerini 2017 ortası ile sonu arasındaki 30 aylık süre boyunca tek hakim tarafından yapılan duruşmalara diktiler. Ayrıca sanıkların 24 aya kadar olan tutuklama verileri de analiz edildi.
Sonuçlar, yapay zekanın yeniden suçluları tahmin etme konusunda tek başına hakimden daha kötü performans gösterdiğini gösterdi; bu durumda, nakit kefalet konusunda daha sıkı kısıtlamalar getirildi. Aynı zamanda, tek başına insan ile yapay zeka destekli karar vermenin doğruluğu arasında çok az fark bulundu veya hiç bulunamadı. Hakim, davaların yüzde 30'undan biraz fazlasında AI tavsiyelerine karşı çıktı.
Greiner, “Buna şaşırdım” dedi. “Algoritmaların bazen insan kararlarından daha iyi performans gösterebildiğine dair belirttiğimiz kanıtlar göz önüne alındığında, sanki bu algoritma çok sert olacak şekilde ayarlanmış gibi görünüyordu. Tutukluların yaramazlık yapacaklarını aşırı tahmin ediyordu, bunu çok sık yapacaklarını tahmin ediyordu ve bu nedenle çok sert tedbirler öneriyordu.”
Profesörler, bu sorunun algoritmanın yeniden kalibre edilmesiyle çözülebileceğini savundu.
Imai, “Algoritmayı veya yapay zekayı anlayıp düzeltmek, insandan çok daha kolay” dedi. “İnsanı değiştirmek ya da insanların neden karar verdiğini anlamak çok daha zor.”
Araştırmanın bulgularının endişe kaynağı olabileceğini kabul etti ancak insanların da önyargılı olduğunu belirtti. “Yapay zekanın veya algoritmanın avantajı şeffaf hale getirilebilmesidir” dedi. Önemli olan ampirik değerlendirme ve analiz için hazır olan açık kaynaklı yapay zekaya sahip olmaktır.
Greiner, ceza adaleti sisteminin şu anda yapay zekayı kullanma şeklinin ve rehbersiz insan kararlarının iyileştirmeler yapmak amacıyla incelenmesi gerektiğini ekledi. “Bunun rahatlatıcı olup olmadığını bilmiyorum,” diye teklifte bulundu, “ama yapay zekadan korkan veya şüpheci olan insanlara tepkim, yapay zekadan korkmak ve şüpheci olmak, ancak potansiyel olarak yönlendirilmemiş insan kararlarından daha fazla korkmak veya şüpheci olmaktır. ” Ceza adaleti sisteminin şu anda yapay zekayı kullanma şeklinin yanı sıra rehbersiz insan kararlarının iyileştirmeler yapmak için incelenmesi gerektiğini de sözlerine ekledi.
Makalenin diğer ortak yazarları Eli Ben-MichaelCarnegie Mellon Üniversitesi'nde istatistik ve veri bilimi alanında yardımcı doçent; Zhichao JiangÇin'deki Sun Tay-sen Üniversitesi'nde matematik profesörü; Melodi HuangWojcicki Troper Bilim Veri Bilimi Enstitüsü'nde doktora sonrası araştırmacı ve Sooahn Shindoktora derecesi Kenneth C. Griffin Sanat ve Bilim Enstitüsü'nde hükümet adayı.
Hükümet ve istatistik profesörü ortak yazar Kosuke Imai, “Birçok araştırmacı, algoritmanın mı yoksa yapay zekanın mı önyargılı olduğuna odaklandı” dedi. “Aslında incelemedikleri şey, yapay zeka kullanımının insan kararını nasıl etkilediğidir.”
Ceza adaleti, tıp ve hatta iş dünyası da dahil olmak üzere çeşitli sektörler yapay zeka önerilerini kullansa da, nihai karar vericiler genellikle insanlardır. Araştırmacılar, tek bir hakimin verdiği cezai kefalet kararlarını yapay zeka sistemi tarafından oluşturulan tavsiyelerle karşılaştırarak bunu dikkate aldı. Yapay zekanın nakit kefaletin uygulanıp uygulanmayacağı üzerindeki etkisi özellikle analiz edildi.
%30 — hakimin AI tavsiyelerini reddettiği vakaların yüzdesi
Randomize kontrollü çalışma, Wisconsin'deki Dane County'de gerçekleştirildi ve tutukluların kendi taahhütleriyle serbest bırakılıp bırakılmadığına veya nakit kefaletle serbest bırakılıp bırakılmadığına odaklanıldı. Imai ve Bilim Hukuk Fakültesi'nin Saygıdeğer S. William Green Kamu Hukuku Profesörü Jim Greiner liderliğindeki araştırmacılar, gözlerini 2017 ortası ile sonu arasındaki 30 aylık süre boyunca tek hakim tarafından yapılan duruşmalara diktiler. Ayrıca sanıkların 24 aya kadar olan tutuklama verileri de analiz edildi.
Sonuçlar, yapay zekanın yeniden suçluları tahmin etme konusunda tek başına hakimden daha kötü performans gösterdiğini gösterdi; bu durumda, nakit kefalet konusunda daha sıkı kısıtlamalar getirildi. Aynı zamanda, tek başına insan ile yapay zeka destekli karar vermenin doğruluğu arasında çok az fark bulundu veya hiç bulunamadı. Hakim, davaların yüzde 30'undan biraz fazlasında AI tavsiyelerine karşı çıktı.
Greiner, “Buna şaşırdım” dedi. “Algoritmaların bazen insan kararlarından daha iyi performans gösterebildiğine dair belirttiğimiz kanıtlar göz önüne alındığında, sanki bu algoritma çok sert olacak şekilde ayarlanmış gibi görünüyordu. Tutukluların yaramazlık yapacaklarını aşırı tahmin ediyordu, bunu çok sık yapacaklarını tahmin ediyordu ve bu nedenle çok sert tedbirler öneriyordu.”
Profesörler, bu sorunun algoritmanın yeniden kalibre edilmesiyle çözülebileceğini savundu.
Imai, “Algoritmayı veya yapay zekayı anlayıp düzeltmek, insandan çok daha kolay” dedi. “İnsanı değiştirmek ya da insanların neden karar verdiğini anlamak çok daha zor.”
Burada incelenen yapay zeka, özellikle ırkı hesaba katmadı; bunun yerine yaş ve geçmiş suç deneyimiyle ilgili dokuz faktöre odaklandı. Irkçı gerrymandering'i ortadan kaldırmak için istatistiksel modellemeyi kullanma konusunda uzman olan Imai, nakit kefaletle ilgili eşitsizlikleri, özellikle suç geçmişiyle ilgili olmak üzere çeşitli toplumsal faktörlere bağladı.“Yapay zekanın veya algoritmanın avantajı şeffaf hale getirilebilmesidir.”
Kosuke Imai
Araştırmanın bulgularının endişe kaynağı olabileceğini kabul etti ancak insanların da önyargılı olduğunu belirtti. “Yapay zekanın veya algoritmanın avantajı şeffaf hale getirilebilmesidir” dedi. Önemli olan ampirik değerlendirme ve analiz için hazır olan açık kaynaklı yapay zekaya sahip olmaktır.
Greiner, ceza adaleti sisteminin şu anda yapay zekayı kullanma şeklinin ve rehbersiz insan kararlarının iyileştirmeler yapmak amacıyla incelenmesi gerektiğini ekledi. “Bunun rahatlatıcı olup olmadığını bilmiyorum,” diye teklifte bulundu, “ama yapay zekadan korkan veya şüpheci olan insanlara tepkim, yapay zekadan korkmak ve şüpheci olmak, ancak potansiyel olarak yönlendirilmemiş insan kararlarından daha fazla korkmak veya şüpheci olmaktır. ” Ceza adaleti sisteminin şu anda yapay zekayı kullanma şeklinin yanı sıra rehbersiz insan kararlarının iyileştirmeler yapmak için incelenmesi gerektiğini de sözlerine ekledi.
Makalenin diğer ortak yazarları Eli Ben-MichaelCarnegie Mellon Üniversitesi'nde istatistik ve veri bilimi alanında yardımcı doçent; Zhichao JiangÇin'deki Sun Tay-sen Üniversitesi'nde matematik profesörü; Melodi HuangWojcicki Troper Bilim Veri Bilimi Enstitüsü'nde doktora sonrası araştırmacı ve Sooahn Shindoktora derecesi Kenneth C. Griffin Sanat ve Bilim Enstitüsü'nde hükümet adayı.