Haber

Yapay zeka, insanlar için hayati önem taşıyan anlarda söz sahibi olabilir

Yapay zekanın insanlar için hayati önem taşıyan problemlerde söz sahibi olması artık bilim kurgu filmlerinden bir kesit olmaktan çıkabilir. Zira hukuk gibi kritik bir alanda bile yapay zeka dünyanın bazı bölgelerinde pilot uygulamalarla kullanılmaya başlandı.

İnsan davranışını taklit eden algoritmaların mahkeme kararlarında bile söz sahibi olmasının etik olup olmadığı tartışılıyor.

Hukuk alanında davaların hızlandırılması, rutin işlerin otomatikleştirilmesi gibi konularda avantaj sağladığına inanılan yapay zeka, dünyanın farklı yerlerinde çeşitli pilot uygulamalarla insanlığın karşısına çıkıyor. Bunlardan birkaçını Çin, Estonya ve Malezya’da görmek mümkün.

Estonya’da küçük davaları değerli kılan “robot yargıçlar”, Kanada’da robot arabulucular, Çin’de yapay zeka yargıçları ve Malezya’da yapay zeka yargılama sistemi ile algoritmalar artık adalet sisteminde de hissediliyor.

Çin’in başkenti Pekin’de 2019 yılında İnternet Mahkemesi’ne bağlı çevrimiçi dava takip hizmet merkezinde dava açma ve dosyalama gibi rutin hukuki süreçlerde kararlara yardımcı olması için yapay zeka teknolojisini kullanan bir yazılım modülü kullanılmaya başlandı.

Benzer bir durum bire bir yıllarda Estonya’da yeniden başladı. Estonya’da mahkemelerde göreve başlayan yapay zeka tabanlı robot hakimler, 7 bin avronun altındaki dengeli uyuşmazlıklarda yasal belgelerin incelenmesi ve analiz edilmesi konusunda mahkemelere takviye veriyor.

Malezya’da 2022 yılında ülkenin bazı eyaletlerindeki mahkemelerde yapay zeka yargılama sisteminin pilot uygulamaları başladı.

Yapay zekanın adalet sistemine dahil edilmesinin cezaların daha dengeli hale gelmesine, yığılan davaların daha hızlı ve daha az maliyetli bir şekilde ilerlemesine yardımcı olduğu söylense de hukuk etiği açısından bunun doğru olup olmadığı tartışılmaktadır.

Yapay zekada en değerli nokta, kanunlar önünde “etik denetim”dir.

İstanbul Medipol Üniversitesi Hukuk Fakültesi Öğretim Üyesi Prof. Dr. Ahmet Ulvi Türkbağ, yapay zekanın ahlaki kontrolü ile ilgili belli başlı unsurların olduğunu belirterek, “Bunlardan en önemlisi yapay zekanın şeffaf olması. Kesinlikle ve kesinlikle kontrol edilebilir olması. , bu bir şart.Çünkü neden bir karar verdiğinizi bilmiyorsak bu ilginç bir mantık olur ve o kararın doğruluğu hakkında soru işareti olur.”Yargıya varamayız. Bu çok tehlikeli sonuçlara yol açabilir.” değerlendirmesini yaptı.

Yapay zekanın şaşırtıcı kararlar alma gücüne sahip olduğunu ve bu nedenle algoritmaların verdiği kararların insanlar tarafından erişilebilir olması gerektiğini ifade eden Türkbağ, bunun “alt program” adı verilen küçük programlarla sağlanabileceğini söyledi.

Türkbağ, algoritmalar tarafından verilen önemli mahkeme kararlarının insan zekası tarafından denetlenebilir olması gerektiğini belirtti.

Algoritmaların sağlıklı bir şekilde denetlenebileceğine değinen Türkbağ, bunun iki şekilde olabileceğini varsayarak, “Birincisi, tıpkı antivirüs programlarında olduğu gibi, resmi veya özel bir etik kontrol programı, yapay zeka programınızı denetliyor ve etik derecelendirme sertifikası alıyorsunuz. Yani programınızın etik güvenilirliği derecelendirilir ve onunla ilgili belirli alanlarda kullanılabilir.Örneğin ağır ceza gerektiren kabahatlerde veya dava konusunun yüksek maliyetli olduğu uyuşmazlıklarda, en sağlam yapay zeka programları mesela testten tam not alanlar etik güvenilirliği 5.derece olan programlar kullanılır yani etik kontrol programları genel veya “özel amaçlı yapay zeka programlarını kontrol ederler. Günümüzde intihal programları tam da bu mantıkla çalışmaktadır. Kontrol programı onay verirse yapay zeka çıkacak.” dedi.

İncelemenin önemine vurgu yapan Türkbağ, “Yasal denetimden daha değerli. Yapay zekayı mutlaka etik denetime tabi tutmalıyız.” dedi.

Konuyla ilgili bir başka varsayımda bulunan Türkbağ, “Aracın dış hava sıcaklığını ölçmesini istiyorsanız bir yazılım eklersiniz, bir derece eklersiniz, varsayım olarak 5 dakikada bir ekrana veriler yansır, bu bir varsayımdır.” alt program.” Yapay zekanın hukuk alanında kullanılmasının ardından alınan kararın alt program yardımıyla geriye dönük olarak karara varma adımlarını gösterebileceğini belirtti.

Yapay zekanın manipülasyonu ve mahremiyet endişeleri

ABD’de kar amacı gütmeyen Yapay Zeka ve Dijital Politika Merkezi (CAIDP), Federal Ticaret Komisyonu’na (FTC) yaptığı başvuruda, yapay zeka geliştirme şirketi OpenAI’nin yapay zeka robotu ChatGPT’nin, GPT-4’ün yeni versiyonu, durdurulmak

CAIDP, OpenAI’yi FTC’nin haksız ve yanıltıcı iş uygulamaları yasasını ve yapay zeka eserleri yönergelerini ihlal etmekle suçlayarak FTC’ye şikayette bulundu. OpenAI’nin en yeni GPT modeli GPT-4’ün “aldatıcı olduğunu ve mahremiyet ve kamu güvenliği için risk oluşturduğunu” savunan CAIDP, şirketin yapay zeka ürünlerinin FTC’nin rehberliğinde yer alan “şeffaf, açık ve hesap verebilir” standartlarını karşılamadığını savundu.

Bazı dal uzmanları, bilgisayar teknolojisinin “insan manipülasyonu” konusunda da endişe duyuyorlar.

prof. Türkbağ, “Yapay zeka manipüle edilmemeli, bu çok önemli. Yapay zekadan bir insanı kurtarmasını istediniz ve bu kişinin de beslediği bir hayvanı var, adamı kurtarırken hayvanı öldürmesin.” terimleri kullandı.

AI kararını üst mahkemeye taşımak

Türkbağ, varsayımsal olarak, yapay zeka tarafından verilen bir kararın temyiz edilip bir üst mahkemeye götürülmesi halinde, davanın insan zekasına devredilmesi gerektiğini belirtti.

“Yapay zekayı birinci derecede kabul etsek bile itiraz edildiğinde mutlaka insana gitmeli, hukuk mantığı bunu gerektiriyor.” Türkbağ, vakaların değerine göre yapay zekanın geniş çaplı veri tabanı taraması yapması gerektiğini sözlerine ekledi.

Türkbağ daha sonra yapay zekanın bir hiyerarşi geliştirebildiğini, algoritmalarla alınan kararın insanlar tarafından itiraz edilmemesi durumunda artı puan olarak algılanacağını kaydederek, “Daha sonra içtihat olacak çünkü Artılara daha çok yer verin.Artı puan aldığı gibi o örneklerin üzerinden geçecek.Eksi puan gelince o karar da alınacak.Şüpheli olduğunu düşünecek ve daha az olası diye karar vermeye başlayacak. . Yapay zeka, insanlardan farklı olarak her örnekte birebir öğrenir ve asla unutmaz.” söz konusu.

Yapay zekanın geliştirdiği kendi içtihatlarına da bakacağını belirten Türkbağ, yapay zekanın tehlikeli durumlarda daha önce yaptıklarını taklit edeceğini, tehlikeli durumlarda ne yapılacağına öncelik verilmezse bunun büyük sorunlara yol açacağını kaydetti. .

Örneğin Türkbağ, önemli sorunun yapay zekanın hareket halindeki bir araba olduğunda arabanın içini mi yoksa dışını mı koruyacağı olduğunun altını çizdi. Bunun bir mühendislik meselesi olmadığını, tamamen etik bir mesele olduğuna işaret eden Türkbağ, “Bizim için ne olursa olsun ikisini de kurtarması gerekiyor” dedi. değerlendirmesini yaptı.

Türkbağ, “Korkarım mesela VIP araçlardaki yapay zekaya farklı programlar verilebiliyor, ‘içini tamamen koru’ komutu verilebiliyor, ‘dışarı ne olursa olsun’ mantığı beni çok korkutuyor. , insanların yapay zekayı yeniden manipüle etme olasılığı.”

haber-odunpazari.xyz

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
istanbul escort
istanbul escort
istanbul escort