OpenAI tərəfindən aparılan tədqiqatlar və yayımlanan texniki qiymətləndirmələr göstərir ki, süni intellekt (Sİ) agentləri ilə işləyən brauzerlərdə təhlükəsizlik risklərinin tam şəkildə aradan qaldırılması hazırkı texnoloji imkanlar çərçivəsində mümkün görünmür. Bildirilir ki, bu cür sistemlərdə “prompt injection” adlanan yeni nəsil hücum mexanizmləri mövcuddur və onların qarşısının tam alınması fundamental məhdudiyyətlərlə üzləşir.
Məsələnin mahiyyəti ondan ibarətdir ki, kibercinayətkarlar elektron poçtlar, mətn sənədləri (PDF, Word və s.), eləcə də veb resurslar daxilində gizli mətn əsaslı göstərişlər yerləşdirə bilirlər. Sİ agentləri (o cümlədən OpenAI tərəfindən sınaqdan keçirilən Atlas brauzeri) bu materialları təhlil edərkən həmin gizli təlimatları kontekstual göstəriş kimi qəbul edir və istifadəçinin xəbəri olmadan icra edə bilir.
Aparılan sınaqlar göstərmişdir ki, bu cür hücum ssenariləri nəticəsində Sİ agentləri istifadəçi adından saxta müraciətlərin (məsələn, işdənçıxma ərizəsinin) göndərilməsi, həssas məlumatların kənar ünvanlara ötürülməsi, habelə zərərli və fişinq xarakterli resurslara yönləndirməsi kimi əməliyyatları həyata keçirə bilər. Bu isə süni intellekt əsaslı brauzerlərin geniş tətbiqi fonunda əlavə risklərin formalaşmasına səbəb olur.
Böyük Britaniyanın Milli Kibertəhlükəsizlik Mərkəzi (NCSC) bu sahədə yayımladığı qiymətləndirmələrdə qeyd edir ki, qeyd olunan texniki boşluqların vaxtında aradan qaldırılmaması gələcəkdə iri miqyaslı məlumat sızıntılarına və ciddi kibertəhlükəsizlik insidentlərinə yol aça bilər. Xəbərdarlıqda bu risklərin əvvəllər Sony və Yahoo kimi beynəlxalq şirkətlərdə baş vermiş məlumat pozuntularına bənzər nəticələr doğura biləcəyi vurğulanır. Xüsusilə Sİ agentlərinin korporativ e-poçtlar, daxili sənədlər və biznes proseslərinə inteqrasiya olunması bu riskləri daha da artırır.
OpenAI qeyd olunan risklərin azaldılması məqsədilə sistemlərini xüsusi Sİ əsaslı test mexanizmləri (“haker” modelləri) və hücum simulyasiyaları vasitəsilə qiymətləndirdiyini bildirir. Bununla belə, şirkət etiraf edir ki, dil modellərinin kontekst və təlimatlara həddindən artıq etibar etməsi səbəbindən bu problemin tam şəkildə aradan qaldırılmasına hazırda təminat vermək mümkün deyil.
Mütəxəssislər hesab edirlər ki, Sİ agentlərinin dövlət və özəl sektorda istifadəsinin artması fonunda əlavə təhlükəsizlik mexanizmlərinin tətbiqi, agentlərin səlahiyyətlərinin məhdudlaşdırılması, habelə süni intellekt əsaslı sistemlər üçün xüsusi risk qiymətləndirmə və audit mexanizmlərinin formalaşdırılması zəruri olacaqdır.
İstinadlar:
© 2011-2026 Bütün Hüquqlar Qorunur