ŞEREF OĞUZ ŞEREF OĞUZ

Yapay zekâda geri kalma

Bencil bir yapay zekâ, insanlığın başına bela olabilir mi? Kaliforniya Üniversitesi'nden Prof.
Stuart J. Russel "hem de çok büyük bela" diyor. Makineler bir kez zeki olmaya başlarsa, bu zekânın insanlığa faydasını iyi kontrol etmek şart olacak. Aksi halde yapay zekâ, çağımızın en büyük risk unsuru...
Turkcell Teknoloji Zirvesi için geldiği İstanbul'da zirve öncesi yemekte, yapay zekânın geçmişi, şimdisi ve geleceğini konuştuk.
Russel, öncelikle yapay zekânın neleri kapsadığına dair çerçeve çiziyor; Makine öğrenimi, ihtimal hesaplama, planlama, gerçek zamanlı kritik karar alma, çoklu hedef izleme, işlemsel biyoloji ve tüm bunların arka planında yatan yeni felsefe...
Robotik ve biyo-enformatik alanlarındaki çalışmalarında Russel, akıllı silahlarla kitlesel kıyım risklerinden, bencil bir zekânın insanlığa vereceği zararlardan, yeni nesil terminatörlerden söz ederken irkiliyorsunuz.
Neticede yapay da olsa bir zekâ söz konusu ve onu inşa eden, organik zekâlı beyinlerimiz.
Bu süreçte eğer siz etik değerleri ıskalar, insana özen göstermezseniz, kendi elinizle Frankeştayn inşa etmiş olursunuz.
Peki, bu işlere hiç bulaşmamak?
Bu, artık mümkün değil. Nasıl ki karşıtı veya yandaşı olsanız dahi küreselleşme sizi dönüştürüyorsa, yapay zekâ çağında bizlerin bu alanda "geri kalmaması" şart. Aksi halde başkasının hizmetindeki yapay zekâ tarafından yönetilir, sömürülür, belki de esir edilirsiniz.
Russel'e robotların zihin kodunu yazan Isaac Asimov'un 3 robot yasasını soruyorum; "günümüz teknolojisi, Asimov çağının tehditlerinin ötesine vardı" diyor.
Doğrudur, "büyük ağabey bizi gözetlemeyi" çoktan bitirdi, artık bizi annemizden hatta kendimizden de daha iyi tanıyor.
Isaac Asimov, ünlü bilimkurgu romanlarında "Üç Robot Yasası"ndan bahseder.
1- Bir robot bir İNSANA zarar veremez ya da zarar görmesine seyirci kalamaz.
2-Bir robot, birinci kuralla çelişmediği sürece bir İNSANIN emirlerine uymak zorundadır. 3- Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumakla mükelleftir.
Bu üçlü algoritmaya göre robotların insanlara asla zarar veremeyeceğini savunmuştu Asimov. Fakat yapay zekâyı geliştirenler, Asimov'un üçlemesine, "sıfırıncı yasa" diye bir şey eklediler ve işin rengi değişiverdi; "Bir robot İNSANLIĞA zarar veremez ya da zarar görmesine seyirci kalamaz." Bu mini(!) detay doğal olarak üçlemeyi de etkiliyor ve "bir robot, sıfırıncı yasayla çelişmediği sürece bir insana zarar veremez ya da zarar görmesine seyirci kalamaz." Burada kritik olan "insanlığa zarar" kararını kimin veya kimlerin tanımlayacağıdır. Nitekim Stephen Hawkins'in uykularını kaçıran ve "yapay zekâ, insanlığın sonunu getirecek" kaygılarını depreştiren de budur.
Vatandaşlık verilen ilk insansı robot Sophia'nın TV mülakatında "robot insana zarar verir mi?" sorusuna verdiği cevaba bakalım:
"Siz bize iyi davranırsanız, biz de size iyi davranırız." Netice, bize ancak kendi ürettiğimiz yapay zekâ iyi davranabilir.

BİZE ULAŞIN