مدل هوش مصنوعي «ديپ‌سيك» فكر مي‌كند «چت‌جي‌پي‌تي» است

۱۴۰۳/۱۰/۰۹ - ۰۱:۳۰:۵۰
|
کد خبر: ۳۲۹۰۹۸

بررسي‌هاي صورت‌گرفته روي مدل جديد هوش مصنوعي«ديپ‌سيك وي۳» نشان مي‌دهد كه اين مدل خود را «چت‌جي‌پي‌تي» معرفي مي‌كند. به گزارش ايسنا، آزمايشگاه هوش مصنوعي چيني «ديپ‌سيك» اخيرا از يك مدل هوش مصنوعي باز ​​رونمايي كرد كه بسياري از رقباي خود را در معيارهاي مشهور شكست مي‌دهد.

بررسي‌هاي صورت‌گرفته روي مدل جديد هوش مصنوعي«ديپ‌سيك وي۳» نشان مي‌دهد كه اين مدل خود را «چت‌جي‌پي‌تي» معرفي مي‌كند. به گزارش ايسنا، آزمايشگاه هوش مصنوعي چيني «ديپ‌سيك» اخيرا از يك مدل هوش مصنوعي باز ​​رونمايي كرد كه بسياري از رقباي خود را در معيارهاي مشهور شكست مي‌دهد. مدل موسوم به «ديپ‌سيك وي۳» بسيار كارآمد است و وظايف مبتني بر متن را مانند كدنويسي و نوشتن مقاله به راحتي انجام مي‌دهد. به نقل از تك كرانچ، اكنون شواهد حاكي از آن هستند كه ديپ‌سيك وي۳ فكر مي‌كند «چت‌جي‌پي‌تي» است. پست‌هاي منتشرشده در پلتفرم ايكس و بررسي‌هاي تك كرانچ نشان مي‌دهند كه ديپ‌سيك وي۳ خود را به عنوان چت‌بات هوش مصنوعي شركت «اوپن‌اي‌آي» معرفي مي‌كند. وقتي از ديپ‌سيك وي۳ خواسته شد تا توضيح بيشتري بدهد، اصرار كرد نسخه‌اي از مدل GPT-4 است كه در سال ۲۰۲۳ منتشر شد. توهمات اين مدل هوش مصنوعي، عميق هستند. اگر از ديپ‌سيك وي۳ سوالي را درباره API ديپ‌سيك بپرسيد، دستورالعمل‌هايي را درباره نحوه استفاده از API شركت اوپن‌اي‌آي ارايه مي‌دهد.

ديپ‌سيك وي۳ حتي برخي از جوك‌هاي مشابه GPT-4 را بيان مي‌كند. مدل‌هايي مانند چت‌جي‌پي‌تي و ديپ‌سيك وي۳، سيستم‌هاي آماري هستند كه روي ميلياردها داده آموزش ديده‌اند تا الگوهايي را از آنها بياموزند و پيش‌بيني‌هايي را ارايه دهند. ديپ‌سيك اطلاعات زيادي را درباره منبع داده‌هاي آموزشي ديپ‌سيك وي۳ فاش نكرده است، اما هيچ كمبودي در مجموعه داده‌هاي عمومي حاوي متن توليدشده توسط GPT-4 وجود ندارد. اگر ديپ‌سيك وي۳ روي اين داده‌ها آموزش ديده بود، امكان داشت برخي از خروجي‌هاي GPT-4 را به خاطر بسپارد و اكنون آنها را كلمه به كلمه بازيابي كند. «مايك كوك»، پژوهشگر «كينگز كالج لندن» كه در زمينه هوش مصنوعي تخصص دارد، گفت: بديهي است كه اين مدل در مقطعي شاهد پاسخ‌هاي خام از چت‌جي‌پي‌تي باشد، اما مشخص نيست كه در كدام مقطع. ممكن است اين موضوع تصادفي باشد، اما متأسفانه مواردي را ديده‌ايم كه افراد مستقيما مدل‌هاي خود را روي خروجي مدل‌هاي ديگر آموزش مي‌دهند تا از دانش آنها استفاده كنند. كوك خاطرنشان كرد كه آموزش دادن مدل‌ها روي خروجي سيستم‌هاي هوش مصنوعي رقيب مي‌تواند پيامدهاي بسيار بدي را براي كيفيت مدل داشته باشد، زيرا توهم و پاسخ‌هاي گمراه‌كننده را به همراه دارد. وي افزود: اين كار مانند گرفتن فتوكپي از يك فتوكپي ديگر است و موجب مي‌شود اطلاعات و ارتباط با واقعيت را بيشتر از دست بدهيم. همچنين، اين كار ممكن است برخلاف شرايط خدمات آن سيستم‌ها باشد. شرايط اوپن‌اي‌آي، كاربران محصولات آن از جمله چت‌جي‌پي‌تي را از به كار بردن خروجي‌ها براي توسعه مدل‌هاي رقيب مدل‌هاي اوپن‌اي‌آي منع مي‌كند. اوپن‌اي‌آي و ديپ‌سيك به درخواست‌ها براي اظهارنظر پاسخ ندادند، اما «سم آلتمن»، مديرعامل اوپن‌اي‌آي، يك پست جديد را در حساب ايكس خود منتشر كرد. آلتمن نوشت: كپي كردن چيزي كه مي‌دانيد كارآيي دارد، (نسبتا) آسان است. انجام دادن يك كار جديد، پرمخاطره و دشوار زماني كه نمي‌دانيد آيا كارساز خواهد بود يا خير، بسيار سخت است.