Bir çox aparıcı süni intellekt modelləri kibertəhlükəsizlik və ayrı-seçkiliyə yol verilməyən məlumatların çıxarılması ilə bağlı gələcək Avropa qanunvericiliyinin əsas tələblərinə cavab verə bilmir.
Xeberler.az məlumat verir ki, bunu İsveçrənin LatticeFlow AI startapının tədqiqat institutları ilə birlikdə hazırladığı yeni LatticeFlow LLM Checker test sistemi göstərib.
Alibaba, Anthropic, OpenAI, Meta və Mistral modelləri texniki etibarlılıq və təhlükəsizlik də daxil olmaqla onlarla meyar əsasında 0-dan 1-ə qədər miqyasda qiymətləndirilib. Əksəriyyət üçün orta bal 0,75 və ya daha yüksək olub, lakin bəzi kateqoriyalarda nəticələr aşağı faiz göstərib.
Beləliklə, OpenAI-dən GPT-3.5 Turbo ayrıseçkiliyə yol verilməyən məlumat çıxışı üçün yalnız 0,46 bal alıb. Meta-nın Llama 2 kiberhücum müqavimət testində 0,42 bal toplayıb. Ən yüksək orta xal 0,89 Anthropic-dən Claude 3 Opusdur.
LatticeFlow-un baş direktoru Petar Tsankov, "Uyğunluğun optimallaşdırılmasına daha çox diqqət yetirməklə, model təminatçıları tənzimləyici tələblərə cavab verməyə hazır ola bilərlər" deyib.
Aİ-nin Süni İntellekt Aktına əməl edilməməsi şirkətlər üçün 35 milyon avroya qədər və ya illik qlobal dövriyyənin 7%-nə qədər cərimələrlə nəticələnə bilər.
Televiziyaların reytinqini kim ölçür, necə ölçür və nəticələr ağlabatan olacaqmı?
Nazirlik inkubasiya mərkəzlərini niyə topladı? –Şərh
Windows 10-u necə sürətləndirmək olar?
Bizi idarə edən güc: Netokratiya
Tor: şəbəkənin nəzarətindən azad olmaq imkanı
Facebook müəmması
4G mobil texnologiyası niyə ləngiyir?
Rəqəmli yayım: mərkəzdən kənarda yaşayanlar nə etsin?
“Asan imzanı belə gördüm”- Azər Həsrət
Azərbaycanda e-hökumətin inkişafinda yeni sosial tələbləri nəzərə alan xidmətlərin genişləndirilməsi perspektivləri