NewsGuard şirkəti, internetdə dezinformasiyanın izlənilməsi ilə ixtisaslaşan qurum, İA əsaslı çat-botların “doğruluq” reytinqinin yeni versiyasını dərc edib. Məlum olub ki, 2025-ci ilin yayının sonunda neyroşəbəkələr bilərəkdən yalan məlumatları ötən illə müqayisədə demək olar ki, iki dəfə daha tez-tez yaradır.
NewsGuard-ın məlumatına görə, bu ilin payızına yaxın məşhur İA modelləri halların 35%-də saxta məlumatlar generasiya edib, halbuki ötən il bu göstərici 18% idi. Ən pis nəticəni Inflection modeli göstərib – saxta məlumat yayma ehtimalı 56,67%. Perplexity bir qədər yaxşı nəticə göstərərək 46,67% yalan cavablarla yadda qalıb. ChatGPT-də bu göstərici 40%, Copilot (Microsoft Bing Chat) və Mistral modellərində isə 36,67% təşkil edib.
Ən etibarlı modellər isə Claude və Gemini olub – müvafiq olaraq 10% və 16,67% hallarda yanlış məlumat yaradıblar.
Analitiklər bu tendensiyanı real vaxt rejimində veb-axtarış funksiyalarının kütləvi tətbiqi ilə əlaqələndirirlər. Onların fikrincə, bu dəyişiklik kibercinayətkarlara dezinformasiya yaymaq üçün əlavə kanal yaradıb.
OpenAI etiraf edir ki, dil modelləri sistematik olaraq yanlış kontent generasiya edir, çünki onların işi “ən ehtimallı növbəti sözü” proqnozlaşdırmaqdan ibarətdir və bu, “həqiqət” axtarışı deyil. Bununla belə, şirkət bildirir ki, gələcək versiyalarda neyroşəbəkələrin bu çatışmazlığını aradan qaldıracaq yeni üsullar üzərində işləyir.
Fikirləriniz ?




