Süni intellekt bəşəriyyəti məğlub edəcək?
Bizə zərər vuran fövqəlzəkalı maşınlar sadəcə elmi fantastika deyil. Texnoloqlar süni intellektin bu qədər avtonomlaşdırıldığı, onlara geniş səlahiyyətlərin verildiyi bir şəraitdə, onların öz yaradıcılarına qarşı hər zaman sadiq və mehriban qalıb-qalmayacağı sualı üzərində “baş sındırır”.
Hər şey 3,5 milyard il əvvəl palçıqlı gölməçədən başlayıb. Bir molekul öz surətini yaradaraq, Yer planetindəki həyatın ulu əcdadına çevrilib. Dörd milyon il əvvəl isə insana bənzərlərin beyin həcmi artmağa başlayıb.
On min il əvvəl sivilizasiya yaranıb.
Beş yüz il əvvəl çap qurğusu ixtira olunub.
Azı otuz ilə “bu” başa çatacaq.
Bu sözlər Yaan Tallinnin qarşısına ilk dəfə 2007-ci ildə “Qeyri-adiyə nəzər salaraq” başlıqlı onlayn oçerkində çıxıb. “Bu” dedikdə, insan sivilizasiyasını nəzərdə tutur. “Bəşəriyyət artıq mövcud olmayacaq” deyə oçerkin müəllifi insan zəkasını az qala bütün sahələrdə geridə qoyacaq fövqəlintellekt və ya süni intellektin peyda olması ilə bağlı yazısında proqnozlaşdırır.
Y. Tallinn estoniyalı proqramçıdır, fikiza sahəsi üzrə ali təhlsil alıb, həyata proqramlaşdırmada üzləşilən böyük problemi kimi yanaşır. 2003-cü ildə o, “Skype” proqramının yaradıcılarından olub, tətbiqin modulunu hazırlayıb. “eBay”in iki il sonra həmin modulu almasının ardından öz payını satıb və gələcəkdə nə ilə məşğul olacağı barədə düşünüb-daşınıb. “Qeyri-adiyə nəzər salaraq” oçerki oxuduqdan sonra kompüter kodu, kvant fizikası, Kelvin və Hobbsun sitatları ilə beynini doldurub. Artıq müstəqil fikir yürüdə bilmirdi.
Tezliklə Y.Tallinn bu oçerkin müəllifi olan müstəqil nəzəriyyəçi İlizar Yudkovskinin mindən çox oçerk və bloq məqaləsinin müəllifi olduğunu öyrənir. Üstəlik bu məqalə və oçerklər fövqəlintellektlə bağlı mövzuları əhatə edir.
İ. Yudkovskinin bütün məqalələrini internetdən tapıb, xronoloji ardıcıllıqla düzən və “iPhone”un dəstəklədiyi formata çevirən xüsusi proqram yaradır. Sonra il ərzində onları aramla, son dərəcə diqqətlə oxuyur.
“Süni intellekt” və ya kompüter və maşınlarda şüurun modelləşdirilməsi termini hələ 1956-cı ildə, yəni ilk elektron rəqəmsal kompüterlərin yaradılmasından 10 il sonra ortaya çıxıb. Əvvəl bu tədqiqat sahəsi ilə bağlı geniş gözləntilər olsa da, 1970-ci ildə erkən proqnozlar özünü doğrultmayıb və süni intellekt bir növ “qış yuxusu”na gedib.
Y. Tallinn Yudkovskinin əsərini özü üçün kəşf edəndə, süni intellekt artıq intibah dövrünü keçmişdi. Alimlər artıq bir sıra spesifik sahələrdə kifayət qədər nüfuz qazanan, məsələn möhtəşəm şəkildə şahmat oynayan, mətbəx döşəməsini silən, insanın nitqini tanıyan süni intellekt qurğuları yaratmışdılar. Belə dar ixtisaslaşma çevrəsi olan süni intellekt qurğuları insan zəkasını üstələyən intellektə malik olsa da, bu, yalnız spesifik sferalarda özünü büruzə verir. Deyək ki, peşəkar şahmatçını uda bilən süni intellekt döşəməni yuyub-silə və ya sizi A nöqtəsindən B nöqtəsinə apara bilməyəcək. Y. Tallinn belə bir nəticəyə gəlib ki, fövqəlzəkalı süni intellektdə çoxsaylı bacarıq və vərdişlər artıq məcmu halında olacaq. Onun təbirincə, başqa bir arzuolunmaz fakt odur ki, onlar sosial manipulyasiyada uğur qazanmaq üçün smartfonlardan asılı vəziyyətə düşmüş insanların məlumatlarından istifadə edəcəklər.
İ. Yudkovskinin məqalələrini oxuyan Y. Tallinn belə bir nəticəyə gəlib ki, süni intellektin daha da inkişaf etməsi partlayışa və ya süni intellektin insan nəzarətindən çıxmasına səbəb ola bilər. Bu isə bütövlükdə bəşəriyyəti böyük təhlükə altında qoya bilər. Belə ki, ultraağıllı süni intellektlər, təkamül-inkişaf nərdivanında bəşər övladının yerini tutacaq və biz qəfəsdə olan meymuna necə baxırıqsa, onlar yəni süni intellekt də bizə o gözlə baxacaq. Ya da daha betəri olacaq: bütün insanların axırına çıxacaqlar.
İ. Yudkovskinin son məqaləsini oxuduqdan sonra Tallinn ona elektron məktub göndərib, ona uyğun üslubda – yalnız böyük hərflərlə yazıb. “MƏN – YAAN, SKAYP-I TƏSİS EDƏN MÜHƏNDİSLƏRDƏN BİRİYƏM” deyə müqəddimə verdikdən sonra mətləbə keçib: “O FİKİRLƏ RAZIYAM Kİ, GENİŞƏHATƏLİ, İNSAN ŞÜURUNU ÜSTƏLƏYƏN SÜNİ İNTELLEKTİN PEYDA OLMASINA HAZIRLIQ BƏŞƏRİYYƏTİN ƏSAS TAPŞIRIQLARINDAN BİRİDİR”.
Bir həftə sonra Y.Tallinn planında olan digər görüşlərlə əlaqədar Bay Area-ya uçanda, yolüstü elə İ. Yudkovskinin özü ilə Kaliforniya ştatının Millbray şəhərində yerləşən kiçik kafedə görüşüb.
O qədər maraqlı söhbət ediblər ki, görüş dörd saata qədər uzanıb. “O həqiqətən də əsas anlayışları və detalları düzgün şəkildə anlayır. Hər gün belə insana rast gəlmək olmaz. Çox nadir insandır”, deyə Tallinn bildirib. Bir müddət sonra Y. Tallinn İ. Yudkovskinin adi tədqiqatçı kimi çalışdığı “Süni intellekt xüsusiyyətlərinin araşdırılması institutu” təşkilatı üçün 5000 dollar məbləğində çek yazdı. Həmin vaxtdan bəri Y.Tallinn institutun hesabına 600 000 dollardan çox ianə köçürüb.
İ. Yudkovski ilə görüş V.Tallinnin həyatına yeni məqsəd gətirdi, ona öz missiyasını aydınlaşdırdı: bu missiya bizləri öz əllərimizlə yaratdığımız süni intellektdən xilas etmək məqsədi daşıyır. O, yeni həyata qədəm qoyub. Mütəmadi olaraq səyahət edir, fövqəlzəkanın təhlükələri barədə dünyanın dörd bucağında təbliğat işləri aparır, danışıqlar keçirir. O, insanlığa yardım edəcək. O, bəşəriyyətə qurtulma yollarını tapmağa kömək ola biləcək metodların araşdırılmasına pul ayırmağa başlayıb. Söhbət həm də “mehriban” süni intellekt nümayəndələrinin istehsalından gedir. Bu o demək deyil ki, hansısa maşın və ya süni intellekt hava haqqında söhbət açmaq, və ya uşaqlarınızın adlarını xatırlamaq kimi xüsusi bacarıqlara və vərdişlərə öyrədiləcək, əsla. Halbuki hazırda süni intellekt bundan artığını da etməyə qadirdir. Bu həmçinin o anlama gəlməməlidir ki, belə mehriban süni intellekt altruizm və insanlara qarşı məhəbbətlə coşub-daşacaq. Ən yanlış stereotiplərdən biri süni intellektin insan motivləri və dəyərlərinə malik olduğu düşüncədir. “Mehriban xasiyyət, ürəkaçan əhval-ruhiyyə” daha fundamental anlama gəlir: sabahın maşınları öz məqsədlərinə çatmaq üçün bəşəriyyəti məhvə düçar etməyəcək.
Ötən ilin yaz aylarında mən Y. Tallinnlə yenidən bir araya gəldim. Bu dəfə görüş yerimiz Kembric universitetinin nəzdində fəaliyyət göstərən İsa kollecinin (ing. Jesus College ) yeməkxanası oldu. Nahar vaxtı idi. Bəzəkli vitrajlarla bəzədilmiş pəncərələr, başında parik olan kişilərin yağlı boya ilə çəkilmiş rəsmləri kilsənin interyerini xatırladırdı.
Y.Tallinn qırmızı taxtadan hazırlanmış ağır masanın arxasında əyləşmişdi. “Silikon vadisi” üçün xarakterik olan “kejual” üslubda geyinmişdi: əyində qara cins, futbolka və krossovka var idi.
47 yaşlı Y.Tallinn bir növ texniki dərsliyin bir parçasıdır. O hesab edir ki, elm sahəsindəki nailiyyətlərinə görə onu uzun illər xatırlayacaqlar. Gənc aspirantlardan fərqli olaraq həmkarları ilə klublarda keçirdiyi şənliklərdə daha çox qalır. Onun fövqəlzəkanın təhlükəsizlik problemləri ilə bağlı fikirlərini yoldaşları da bölüşür. “Paypal” proqramının həmtəsisçisi olan Piter Tilin fondu “Miri”yə (Süni intellektin öyrənilməsi üzrə tədqiqat institutu) 1,6 milyon dollar vəsait ayırıb. 2015-ci ildə isə “Tesla”nın təsisçisi İlon Mask Gələcək həyat İnsittutuna (Massaçusets ştatının Kembric şəhərində texniki təhlükəsizliyin təminatı üzrə təşkilat) 10 milyon dollar ianə edib.
Lakin Y. Tallinn bu sahəyə “dəmir pərdə” dövründə, ötən əsrin 80-ci illərində baş vurub. EHM-lə (elektron hesablayıcı maşın –red.) ilk tanışlığı məktəb illərinə təsadüf edir. Sinif yoldaşının dövlət xidmətində işləyən atası bir neçə istedadlı uşağa EHM-dən istifadə etmək imkanı vermişdi. Estoniya müstəqillik əldə etdikdən sonra o, video oyun şirkətini təsis etdi. Bu gün Y.Tallinn hələ də Estoniya paytaxtında – onunla eyni adı bölüşən Tallinndə yaşayır. Evlidir, altı övladı var. Həyat yoldaşı və sonbeşiyi ilə bir evdə qalır. Tədqiqatçı dostları ilə bir araya gəlmək istəyəndə, onları Baltikyanı bölgəyə dəvət edir.
Onun “ciblərini boşaltmaq” strategiyası metodikidir, həyatının bütün aspektlərini ehtiva edir. Öz pul vəsaitlərini 11 təşkilat arasında bölüşdürür. Onlardan hər biri süni intellekt təhlükəsizliyinin təminatı üzrə müxtəlif yanaşmaların hazırlanması ilə məşğuldur. 2012-ci ildə Kembric Eksistensial Risk Tədqiqat Mərkəzinin (CCER) həmtəsisçisi olub. Qurumun ilkin nizamnamə kapitalı 200 min dollara yaxın olub.
Eksiztensial risklər və ya Y. Tallinnin adlandırdığı kimi – X-risklər bəşəriyyətin mövcudluğu üçün ciddi təhlükə mənbəyidir. 20-dən çox CCER tədqiqatçısı süni intellektdən qaynaqlanan risklərlə yanaşı, iqlim dəyişikliyi, nüvə müharibəsi və kimyəvi silahdan istifadə ilə bağlı riskləri də araşdırır. Ancaq Y. Tallinn düşünür ki, bu əlavə istiqamətlər əslində bir növ yüngül narkotikdir. Daha real görünən – məsələn iqlim dəyişikliyi kimi problemlərlə bağlı narahatlıq daha çox insanın diqqətini cəlb edir. O bu yaxınlarda Kembricdə bir konfransda iştirak edib. Tallinn müxtəlif elmi toplantılara qatılmaqla, akademik ictimaiyyətin süni intellekt təhdidləri probleminə ciddi şəkildə yanaşmasına nail olmağa çalışır.
İsa kollecinin yeməkxanasında nahar vaxtı bizimlə bir masa arxasına əyləşənlər arasında konfrans iştirakçıları, o cümlədən robotexnika ilə məşğul olan qadın, 1960-cı illərdə Kembric universitetini bitirmiş britaniyalı yer alırdı. Yaşlı olan, masa arxasında əyləşən hamıdan “Hansı universiteti bitirmisən?” deyə soruşurdu. Halbuki Y.Tallinnin “Estoniyanın Tartu Universitetinin məzunuyam” cavabı onda hər hansı müsbət təəssürat oyatmadı. Daha sonra söhbətin məcrasını ölkədə və dünyada baş verən xəbərlərə yönləndirməyə çalışdı. Y. Tallinn ona laqeydcəsinə göz süzdü və “Mən qısamüddətli risklərlə maraqlanmıram” deyə bildirdi.
Sonradan Y.Tallinn söhbətin mövzusunu dəyişib, fövqəlzəkanın doğurduğu təhlükələrdən söz açdı. Proqramçılarla söhbət əsnasında adətən məcazlara üz tutur. Bu dəfə isə onun ən çox sevdiyi müqayisə metoduna üz tutdu: “Bax biz ağacı gövdəsindən necə kəsirik, yüksək səviyyədə inkişaf etmiş süni intellekt də bizim axırımıza elə çıxa bilər. Valyerdə olan qorillalar insana necə baxırsa, biz də gələcəkdə fövqəlzəkaya elə baxacağıq”.
“Hakimiyyəti tam nəzarətə götürməsi üçün süni intellektə bədən lazımdır. Bu olmadan nəzarəti necə gerçəkləşdirmək olar?”, – deyə yaşlı alim soruşdu.
Y. Tallinn isə onun üçün artıq bir məcaz hazırlamışdı: “Məni sadəcə internetə çıxışı olan zirzəmiyə yerləşdirin, görün hansı oyunlardan çıxıram”, – deyə o, çəngəli qabdakı rizottoya uzatdı.
İstənilən süni intellekt, fərq etməz, “Roomba” olsun ya da onun potensial varisləri, müəyyən məqsəd və nəticələr əsasında fəaliyyətdə olur. Proqramçılar onların qarşısına bu məqsədləri qoyur. Yüksək inkişaf etmiş süni intellektin qarşısına dünyada hər şeydən üstün olmaq məqsədi qoymağa ehtiyac yoxdur. O buna tamamilə təsadüfi də nail ola bilər. Kompüter proqramlaşdırmasında xırda xətalar kifayət qədərdir. Ancaq bəzən bu xırda hesab etdiyimiz xəta böyük fəlakətlərə yol açır. Misal üçün , 2010-cu ildə Waddell & Reed şirkətinin treyderi fond birjasında minlərlə fyuçers kontraktı gerçəkləşdirir, ancaq bir anın içində proqram təminatı dəyişən alqoritmi unudur (bütün maliyyə əməliyyatları məhz bu alqoritmin sayəsində baş tutur). Nəticədə üç milyon dollara yaxın məbləğdə “tənəzzül” baş verir, indeks kəskin şəkildə aşağı düşür.
Y. Tallinin maliyyələşdirdiyi tədqiqatçılar düşünür ki, fövqəlzəkalı süni intellektin mükafatlandırma strukturu düzgün proqramlaşdırılmasa, ən məsum məqsədlər də məkrli məqsədlərlə əvəzlənə bilər. Bunun bariz nümunəsi Oksford Universitetinin filosofu Nik Bostromun “Fövqəlzəka” adlı kitabında göstərilib. Sujet xəttinə görə, robota çox sayda ofis sancağı hazırlamağı həvalə edirlər. Süni intellekt isə bunun istehsalı üçün insan bədəninin atomlarından xammal qismində istifadə etməyi qərara alır.
Tallinnin baxışları heç də bütün həmkarları bölüşmür. Hətta süni intellektin təhlükələri ilə bağlı narahat olan insanlar arasında da onun əzəli opponentləri var. Onların bəziləri hesab edir ki, süni intellekti tam dərk etməyənədək, onların imkanlarının məhdudlaşdırılmasına lüzum yoxdur. Başqaları isə düşünür ki, “fırıldaqçı texnoloji subyektlərin” nəzər nöqtəsində olması bu sahənin daha vacib problemlərini kölgədə qoyur. Buna o faktı misal gətirlər ki, ağdərili insanların hazırladığı alqoritmlərin əksəriyyəti məhz bu irqdən ola insanların baxışlarını əks etdirir.
“Problemlərin həlli ilə qısa zamanda məşğul olmasaq, yaşamaq istəmədiyimiz bir dünyanı qurmuş olacağıq. Tədqiqatçıların üzləşdiyi bir sıra problemlər, məsələn alqoritm xətalarının aradan qaldırılması və kökündən kəsilməsi – fövqəlzəkalı süni intellektlə əlaqədar bəşəriyyətin qarşılaşa biləcəyi qlobal problemlərin carçılarıdır”, – deyə süni intellektin təhlükəsizliyinin təmin olunması və digər məsələlər üzrə ixtisaslaşmış “Süni İntellekt Məsələlər üzrə Tərəfdaşlıq” sənaye texnologiyaları konsorsiumunun icraçı direktoru Tera Lions bildirib.
Y. Tallinn isə bir qədər fərqli fikirdədir. Buna cavabında o bildirir ki, fövqəlzəkalı süni intellekt özlüyündə unikal təhdidlər mənbəyidir. O hesab edir ki, hansısa süni intellekt icması ötən əsrin 40-cı illərində anti-nüvə hərəkatını izləyə bilərdi. Hirosima və Naqasakidə baş verən partlayışlardan sonra alimlər öz səylərini birləşdirərək, gələcəkdə nüvə sınaqlarına əngəl yaratmağa çalışdılar.
O vaxt alimlərdə məsuliyyət hissi daha yüksək idi.
Y. Tallinn xəbərdar edir ki, süni intellekt təhlükəsizliyi məsələlərində düzgün yanaşmanı tapmaq olduqca çətindir. Süni intellekt kifayət qədər ağıllıdırsa, deməli yaradıcısının təyin etdiyi sərhədləri, yəni ona qoyduğu məhdudiyyətləri yaxşı başa düşür: “Təsəvvür edin, beş yaşlı kor uşaqlar tərəfindən inşa olunmuş həbsxanada oyanırsınız. Fövqəlzəkalı süni intellekt üçün insanın tətbiq etdiyi məhdudiyyətlər bax belə görünəcək”.
Nəzəriyyəçi İ.Yudkovski bunun bir gün reallığa çevrilə biləcəyini sübut edib. O, 2002-ci ildə keçirdiyi çat sessiyalarında qutuya yerləşdirilmiş süni intellekt rolunu oynayıb, bir-birini əvəz edən başqa insanlar isə süni intellektin azadlığını məhdudlaşdıran, onu qutudan çıxmağa qoymayan keşikçi rolunda çıxış edib. Beş haldan üçündə fövqəlzəka olmayan, adi canlı insan olan Yudkovski keşikçini dilə tutub, azadlığa çıxmağa nail olub. Ancaq başqaları onun bu eksperimentindən nəticə çıxarmayıb, süni intellekt üçün daha uğurlu qutunun hazırlanması cəhdləri davam edib.
Y. Tallinnin maliyyələşdirdiyi tədqiqatçılar geniş strategiyalara üz tutur. Onların bəziləri süni intellektin həm fiziki olaraq qablaşdırılması (real strukturun qurulması), həm də onun yerinə yetirəcəyi əməliyyatların məhdudlaşdırılmasının proqramlaşdırılmasını nəzərdə tutur. Digər tədqiqatçılar süni intellektə insan dəyərlərini aşılamağa çalışır. Yalnız barmaqla sayılacaq qədər tədqiqatçı vəziyyətin nəzarətdən çıxacağı hallarda lazım gələ biləcək keçirici düymənin yaradılması üçün tər tökür. Oksford Universiteti nəzdində fəaliyyət göstərən Bəşəriyyət Gələcəyinin Tədqiqatı İnstitutunun filosofu və riyaziyyatçısı Stüart Armstron bütün bu strategiyaları hərtərəfli şəkildə təhlil edir (Y. Tallinn bu instituta 310 000 dollardan çox vəsait ayırıb).
S. Armstronq özünü tamamilə süni intellekt təhlükəsizliyi probleminin araşdırılmasına həsr etmiş tək-tük alimlərdən biridir. Onunla Oksfordda qəhvə fincanı arxasında görüşəndə, reqbiçilərin futbolkasına bənzəyən köynək geyinmişdi. Onda həyatının böyük hissəsini kompüter monitoru arxasında keçirmiş adamın görkəmi var idi.
Öz izahatlarında müxtəlif populyar fərziyyələrə və riyaziyyata istinad edərək qarşısındakıları çaş-baş qoyurdu. Ondan soruşdum: “Süni intellekt təhlükəsizliyi sahəsində uğura necə nail olacağıq?”. Mənə belə cavab verdi: “Leqo” filminə baxmısınız? Hər şey əladır”.
S. Armstronqun apardığı tədqiqatlardan biri süni intellektin “Orakul” adlı kameraya yerləşdirilməsindən ibarət olub. 2012-ci ildə Bəşəriyyətin Gələcəyinin Öyrənilməsi İnstitutunun həmtəsisçisi Nik Bostromla birlikdə çap etdirdiyi məqalədə fövqəlzəkanı çərçivələyərək kameraya – fiziki struktura yerləşdirməyi, onu yalnız spiritik lövhə kimi sual-cavab hüququ ilə məhdudlaşdırmağı təklif edib. Belə çərçivələrə yerləşdirilsə belə, süni intellekt insan taleyini dəyişə biləcək böyük qüdrətə malik olacaq, belə ki, ona sualı verənləri manipulasiya edəcək. Belə imkanın ortaya çıxma riskini azaltmaq üçün S. Armstronq “Orakul”un insanla ünsiyyətinə müvəqqəti məhdudiyyət qoymağı, mövcud həyat düzənini alt-üst edə biləcək təşviqedici sualları qadağan etməyi təklif edib. O həmçinin “Orakul”u insanın sağ qalmaq göstəriciləri ilə təchiz etməyi, məsələn Dou-Cons indeksini və ya Tokioda yolu keçən insanların sayını süni intellektin diqqətinə çatdırmaqla, bu məlumatları hazır saxlamağı tapşırıb.
S. Armstronq həmçinin hesab edir ki, böyük, qırmızı “söndürmək” düyməsinin yaradılması ən vacib problemlərdəndir. Öz məqalələrindən birində yazdığı kimi, elə real düymə olmalıdır ki, süni intellekt nəzarətdən çıxanda və ya qaçmağa cəhd edəndə, onun özünü avtomatik söndürmək mümkün olsun.
Ancaq belə düymənin yaradılması o qədər də asan deyil. Təkcə ona görə yox ki, inkişaf etmiş süni intellekt özünüqorumada maraqlıdır və bu düymənin basılmasına əngəl yarada bilər. O həmçinin belə bir düymənin hansı məqsədlə yaradıldığı ilə maraqlana bilər. Çoxbilmişlik edib, nəyin baş verəcəyini bilmək üçün həmin düyməni işə sala bilər. Nəticədə illərlə çəkilən əziyyət və sərf olunan pul bir anın içində puça gedər. Çünki həmin düyməni sıxmaqla, o faktiki olaraq yararsız hala düşəcək. 2013-cü ildə proqramçı Tom Mörfi özünə Nintendo Entertainment System şirkətinin hazırladığı video oyunları oynamağın yolunu öyrədən süni intellekt yaradıb. Hər zaman qalib olmaq üçün proqramlaşdırılmış süni intellekt kritik vəziyyətlərdə – yəni artıq məğlubiyyətin labüd olduğunu görəndə, “pauza” düyməsinə basaraq oyunu dondurub.
“Əslində mübahisəsiz qələbə üçün yeganə gediş elə oyundan imtina etməkdir” deyə Mörfi süni intellekt haqqında yazdığı məqalədə kinayəli şəkildə qeyd edir.
Fərz olunan strategiyanın uğur qazanması üçün süni intellekt qırmızı düymə ilə maraqlanmamalıdır. Tallinnin təbirincə desək, qırmızı düymənin mövcud olub-olmadığı onun ümumiyyətlə vecinə olmamalıdır. Ancaq tədqiqatçılar buna nail olsalar belə, digər problemlər ortaya çıxa bilər. Bəs süni intellekt internetdə öz minlərlə nüsxəsini yaradıbsa, onda necə olsun?
Tədqiqatçıları başlıca olaraq süni intellekti insan dəyərlərini əsas tutmağa vadar etməyin yollarını axtarıb tapmaq maraqlandırır. Üstəlik bunu proqramlaşdırma şəkildə etmirlər, bu dəylərləri süni intellektə öyrədirlər. Partizan siyasətinin hökmranlıq etdiyi dünyada insanların prinsipləri də fərqli olur. Ancaq Y.Tallinn əmin edir ki, insanların saysız-hesabsız ortaq cəhətləri var: “Demək olar ki, hamı öz sağ ayağına dəyər verir. Ancaq biz sadəcə bu barədə düşünmürük”.
Süni intellektə belə dəyişilməz qaydaları tanımağı öyrətmək olar.
Bu prosesdə süni intellektin insanların bütün cəhətlərini, o cümlədən məntiqə sığmayan danışıqlarını da araşdırıb qiymətləndirməsi lazım gələcək: “Biz çox vaxt bir şey deyirik, amma onun tam əksini edirik. Bizim seçimlərimiz bəzən bir-biri ilə ziddiyyət təşkil edir, hər hansı adam sərxoş olanda, daha az etibarlı olur, sirr saxlamır və ipə-sapa yatmayan fikirlər səsləndirə bilir”. Y. Tallinn düşünür ki, bütün çətinliklərə rəğmən, onu sınamağa dəyər.
“Biz bir neçə addım qabaq fikirləşməliyik. Bizim maraqları bölüşməyən süni intellektin yaradılması dəhşətli səhv olardı”,- deyə o söyləyib.
Y.Tallinin Kembricdə keçirdiyi sonuncu gündə əla bifşteksin hazırlandığı kafedə şam süfrəsi arxasında onunla və daha iki tədqiqatçı ilə bir araya gəldik. Ofisiant bizi mağaranı xatırladan zirzəmi bir otağa yerləşdirdi. Bir səhifədən ibarət menyunu mənə təqdim etdi. Menyuda üç növ püre göstərilmişdi. Qonşu masaya bir cütlük əyləşdi. Ancaq çox keçməmiş onlara başqa bir yerə keçmək imkanının yaradılmasını xahiş etdilər. “Bu çox klaustrofob bir yerdir”, – deyə qadın gileyləndi.
Mən Y.Tallinnin “onu internetdən başqa heç bir şeyin olmadığı zirzəmiyə yerləşdirəcəkləri halda, hansı oyunlardan çıxacağı, nə kimi ziyanlar verəcəyi” ilə bağlı dedikləri haqda fikrə daldım. Bax elə biz də indi belə bir qutudayıq. Bir komanda şəklində çıxış yolunu götür-qoy etməyə başladıq.
Tallinnin qonaqları arasında Ekzistensial Risklərin Tədqiqat Mərkəzinin direktoru vəzifəsini tutan keçmiş genomika mütəxəssisi Şon Oheqartay və Kopenhagen universitetinin süni intellekt üzrə tədqiqatçısı Mattis Maas da var idi. Onlar “çoxbilmişlər üçün nəzərdə tutulmuş” “Fövqəlzəka Blockchain-ə qarşı” adlı oyunun yaradılması ilə bağlı zarafatlaşırdılar, Bostromun kitabının motivləri əsasında yaradılan Universal Paperclips onlayn oyunu müzakirə edirdilər.
Oyuna görə ofis sancaqlarının istehsalı üçün siçanın düyməsini dəfələrlə basmaq lazım gəlir. Oyun o qədər də rəngarəng və geniş yayılmış olmasa belə, maşının nə məqsədlə ofis ləvazimatlarının daha səmərəli istehsalı yollarını axtarmağa çalışdığı barədə müəyyən təsəvvür yaradır.
Sonda söhbət qlobal problemlərin müzakirəsinə keçdi. Tallinnin olduğu yerdə demək olar ki, həmişə belə mövzulara toxunulur. Süni intellekt təhlükəsizliyi istiqamətində aparılan tədqiqatların başlıca məqsədi Kembric filosofu Hyu Praysın dediyi kimi “həm etik, həm də koqnitiv aspektdə insanı üstələyəcək” maşın yaradılmasından ibarət olmalıdır. Başqaları belə sual verdi: Süni intellektin üzərimizdə hökmranlıq etməsini istəmiriksə, deməli biz özümüz onlara hökmranlıq etmək istəyirik? Başqa sözlə desək, süni intellektin hüquqları var?
Y.Tallinn isə bütün bunların lazımsız antropomorfizasiya olduğunu düşünür. İntellektin şüura bərabər olduğu ilə bağlı təsəvvürlər yanlışdır və bir çox süni intellekt tədqiqatçılarını qıcıqlandırır.
Y.Tallinn şüurun bu məsələyə heç bir aidiyyətinin olmadığını deyir.
“Misal üçün, termostatı götürək. Heç kim onun şüurlu olduğunu deməyə cürət etməz. Ancaq etiraf etmək lazımdır ki, temperaturu mənfi otuz dərəcə seçilmiş otaqda olan zaman bu faktora qarşı çıxmaq heç də düzgün deyil”.
Burada söhbətə Şon Oheyqartay qoşulur: “Şüura görə, narahat olmağa dəyər. Lakin texniki təhlükəsizlik problemlərini həll etməyənədək bunu ümumiyyətlə ağlımıza belə gətirməməliyik”.
“İnsanları hər zaman fövqəlzəkalı süni intellektin necə olduğu maraqlandırıb. O hansı formada olacaq? Biz tək süni intellektdən, yoxsa süni intellekt ordusundan qorxmalıyıq? Bizim nöqteyi nəzərdən süni intellektin fəaliyyəti daha önəmlidir”, – deyə Tallinn bildirib.
O, süni intellektin fəaliyyətinin insanın nəzarətində qalacağına inanır. Ən azından yaxın gələcəkdə. Sonrasını isə heç kim deyə bilməz.
Bu materialın orijinalı “Guardian” nəşrində dərc olunub.
Mənbə: Medianews.az
Şərhlər
Şərhləri göstər Şərhləri gizlət