مدل هوش مصنوعي «ديپسيك» فكر ميكند «چتجيپيتي» است
بررسيهاي صورتگرفته روي مدل جديد هوش مصنوعي«ديپسيك وي۳» نشان ميدهد كه اين مدل خود را «چتجيپيتي» معرفي ميكند. به گزارش ايسنا، آزمايشگاه هوش مصنوعي چيني «ديپسيك» اخيرا از يك مدل هوش مصنوعي باز رونمايي كرد كه بسياري از رقباي خود را در معيارهاي مشهور شكست ميدهد.
بررسيهاي صورتگرفته روي مدل جديد هوش مصنوعي«ديپسيك وي۳» نشان ميدهد كه اين مدل خود را «چتجيپيتي» معرفي ميكند. به گزارش ايسنا، آزمايشگاه هوش مصنوعي چيني «ديپسيك» اخيرا از يك مدل هوش مصنوعي باز رونمايي كرد كه بسياري از رقباي خود را در معيارهاي مشهور شكست ميدهد. مدل موسوم به «ديپسيك وي۳» بسيار كارآمد است و وظايف مبتني بر متن را مانند كدنويسي و نوشتن مقاله به راحتي انجام ميدهد. به نقل از تك كرانچ، اكنون شواهد حاكي از آن هستند كه ديپسيك وي۳ فكر ميكند «چتجيپيتي» است. پستهاي منتشرشده در پلتفرم ايكس و بررسيهاي تك كرانچ نشان ميدهند كه ديپسيك وي۳ خود را به عنوان چتبات هوش مصنوعي شركت «اوپنايآي» معرفي ميكند. وقتي از ديپسيك وي۳ خواسته شد تا توضيح بيشتري بدهد، اصرار كرد نسخهاي از مدل GPT-4 است كه در سال ۲۰۲۳ منتشر شد. توهمات اين مدل هوش مصنوعي، عميق هستند. اگر از ديپسيك وي۳ سوالي را درباره API ديپسيك بپرسيد، دستورالعملهايي را درباره نحوه استفاده از API شركت اوپنايآي ارايه ميدهد.
ديپسيك وي۳ حتي برخي از جوكهاي مشابه GPT-4 را بيان ميكند. مدلهايي مانند چتجيپيتي و ديپسيك وي۳، سيستمهاي آماري هستند كه روي ميلياردها داده آموزش ديدهاند تا الگوهايي را از آنها بياموزند و پيشبينيهايي را ارايه دهند. ديپسيك اطلاعات زيادي را درباره منبع دادههاي آموزشي ديپسيك وي۳ فاش نكرده است، اما هيچ كمبودي در مجموعه دادههاي عمومي حاوي متن توليدشده توسط GPT-4 وجود ندارد. اگر ديپسيك وي۳ روي اين دادهها آموزش ديده بود، امكان داشت برخي از خروجيهاي GPT-4 را به خاطر بسپارد و اكنون آنها را كلمه به كلمه بازيابي كند. «مايك كوك»، پژوهشگر «كينگز كالج لندن» كه در زمينه هوش مصنوعي تخصص دارد، گفت: بديهي است كه اين مدل در مقطعي شاهد پاسخهاي خام از چتجيپيتي باشد، اما مشخص نيست كه در كدام مقطع. ممكن است اين موضوع تصادفي باشد، اما متأسفانه مواردي را ديدهايم كه افراد مستقيما مدلهاي خود را روي خروجي مدلهاي ديگر آموزش ميدهند تا از دانش آنها استفاده كنند. كوك خاطرنشان كرد كه آموزش دادن مدلها روي خروجي سيستمهاي هوش مصنوعي رقيب ميتواند پيامدهاي بسيار بدي را براي كيفيت مدل داشته باشد، زيرا توهم و پاسخهاي گمراهكننده را به همراه دارد. وي افزود: اين كار مانند گرفتن فتوكپي از يك فتوكپي ديگر است و موجب ميشود اطلاعات و ارتباط با واقعيت را بيشتر از دست بدهيم. همچنين، اين كار ممكن است برخلاف شرايط خدمات آن سيستمها باشد. شرايط اوپنايآي، كاربران محصولات آن از جمله چتجيپيتي را از به كار بردن خروجيها براي توسعه مدلهاي رقيب مدلهاي اوپنايآي منع ميكند. اوپنايآي و ديپسيك به درخواستها براي اظهارنظر پاسخ ندادند، اما «سم آلتمن»، مديرعامل اوپنايآي، يك پست جديد را در حساب ايكس خود منتشر كرد. آلتمن نوشت: كپي كردن چيزي كه ميدانيد كارآيي دارد، (نسبتا) آسان است. انجام دادن يك كار جديد، پرمخاطره و دشوار زماني كه نميدانيد آيا كارساز خواهد بود يا خير، بسيار سخت است.