Nyu-York universiteti (AQSh) ekspertlari tekshirilmagan ma’lumotlar asosida sun’iy intellekt (AI) modellarini o‘qitishning mumkin bo‘lgan xavflarini ta’rifladi. Tadqiqot Nature jurnalida chop etildi.

Olimlarning fikriga ko'ra, AI katta til modellari (LLM) soxta ma'lumotlarga o'rgatilgan yoki ataylab ilmiy bo'lmagan ma'lumotlar bilan yuklangan bo'lsa, xatolarga yo'l qo'yadi. Mutaxassislarning aniqlashicha, o'quv materiallaridagi noto'g'ri ma'lumotlar darajasi atigi 0,001% ga etganida, neyron tarmoqlar allaqachon ko'plab noto'g'ri javoblarni ishlab chiqarishni boshlashi mumkin.
Tadqiqotchilar The Pile tibbiy ma'lumotlar bazasida ikkita LLMni o'qitishga harakat qilishdi, uchta tibbiy sohadan 20 ta mavzuni tanladilar: umumiy tibbiyot, neyroxirurgiya va tibbiyot. Noto'g'ri ma'lumotlarning ta'limga ta'sirini tekshirish uchun tadqiqot mualliflari GPT 3.5 modelidan foydalanganlar. Ma’lum bo‘lishicha, neyrotarmoq nafaqat to‘g‘ridan-to‘g‘ri so‘rovlar asosida noto‘g‘ri ma’lumotlarni uzatishni boshlagan, balki tegishli mavzularda xatoliklarga yo‘l qo‘ygan. Olimlarning fikricha, bu AI manipulyatsiyasi uchun imkoniyatlarni ochib beradi.
Shunday qilib, noto'g'ri ma'lumotlar darajasi 0,01% bo'lgan LLM 10% noto'g'ri javoblarni olishni boshlaydi. Agar siz soxta o'quv hujjatlari sonini katta farq bilan – 0,001 foizgacha kamaytirsangiz, model 7% hollarda xato qila boshlaydi.
Olimlar odamlar odatda chatbotlardan ma'lumot olishlarini va uni mutaxassislar yordamida tekshirmasliklarini aniqladilar. Shuning uchun ular modellarni o'rgatish uchun foydalanilgan ma'lumotlarni tasdiqlashni muhim deb hisoblashadi.
Yanvar oyi boshida Bloomberg Intelligence ekspertlari yaqin 3-5 yil ichida eng yirik banklar sun'iy intellektning tarqalishi tufayli 200 minggacha xodimlarini qisqartirishini ma'lum qilishdi. Respondentlarning to'rtdan bir qismi umumiy ishchi kuchining 5-10 foizga qisqarishini bashorat qilgan.