Bu üsul edilən səhvlərin sayını azaldacaq
Ens.az bildirir ki, ABŞ Massaçusets Texnologiya İnstitutunun (MIT) və Urban-Şampeyndəki İllinoys Universitetinin mütəxəssisləri süni intellekti hücumlardan qorumaq üçün üsul aşkarlayıblar.
Məsələ bundadır ki, dərin öyrənmədə ən mürəkkəb və həll olunmamış məsələlərdən biri sistemlərin rəqib hücumlarına həssaslığıdır. Bu isə sistemin vəzifələrin tamamilə səhv yerinə yetirilməsinə səbəb ola bilər. Yəni, əslində rəqabətli hücum neyron şəbəkəsini aldatmaq yoludur. Məsələn, "Stop" işarəsinə bir etiket əlavə etsəniz maşındakı avtopilot onu başqa bir işarə kimi qəbul edəcək.
Bu hücumların əksəriyyəti görüntü tanıma sistemlərinə yönəldilmiş, eyni zamanda dərin öyrənmə görüntülərini bərpa etmə sistemlərini də əhatə edə bilər.
Mütəxəssislər bu cür sistemlərin hazırlanmasının yeni üsulunu təklif ediblər. Metod, görüntünün bərpasını həyata keçirən və bir-birinə qarşı rəqabət nümunələri (orijinal giriş məlumatlarının qəsdən dəyişdirilmiş versiyaları) yaratmaq üçün cavabdeh olan neyron şəbəkələri “qurmağa” imkan verir. İkinci sinir şəbəkələri birincisini aldatmağa çalışır, bunun sayəsində görüntü bərpa sistemi daha çevik və xətaya davamlı olur.
Mənbə: ferra.ru
Şərhlər
Şərhləri göstər Şərhləri gizlət