سم آلتمن: ChatGPT ردپاي خود را كمرنگ مي‌كند

۱۴۰۴/۰۸/۲۶ - ۰۱:۱۴:۰۸
کد خبر: ۳۶۶۱۴۱

«سم آلتمن» (Sam Altman)، مديرعامل «اوپن‌اي‌آي» (OpenAI) مي‌گويد از حالا اگر به ChatGPT بگوييد كه از خط تيــره بلند (em dash) در متون خود استفاده نكند، به آن گوش مي‌دهد.

«سم آلتمن» (Sam Altman)، مديرعامل «اوپن‌اي‌آي» (OpenAI) مي‌گويد از حالا اگر به ChatGPT بگوييد كه از خط تيــره بلند (em dash) در متون خود استفاده نكند، به آن گوش مي‌دهد. اين چت‌بات قبلاً اين دستورالعمل را ناديده مي‌گرفت. به گزارش ايسنا، اكنون ممكن است مجبور شويد آنچه را كه در اينترنت و متون چاپ شده مي‌خوانيد، با دقت بيشتري بررسي كنيد تا مشخص شود كه آيا محصول هوش مصنوعي است يا خير، چرا كه «سم آلتمن» در شبكه اجتماعي ايكس (توييتر سابق) فاش كرده است كه اگر به ChatGPT بگوييد كه در دستورالعمل‌هاي سفارشي خود از خط تيره بلند (كه در متون ارايه شده توسط هوش مصنوعي بسيار ديده مي‌شود) استفاده نكند، اين چت‌بات بالاخره به شما گوش خواهد داد. پيش از ايــن،    ChatGPT اين دستــورالعمل را ناديده مي‌گرفت و حتي اگر به آن مي‌گفتيد كه اين كار را نكند، به استفاده از خط تيره بلند ادامه مي‌داد. به نقل از انگجت، مردم وجود خط تيره بلند را به ويژه اگر به وفور استفاده شوند، به عنوان يكي از بزرگ‌ترين نشانه‌هايي كه نشان مي‌دهد متني توسط مدل‌هاي زبان بزرگ نوشته شده است، در نظر مي‌گيرند. البته صرفاً به اين دليل كه يك متن از خط تيره بلند استفاده مي‌كند، به اين معني نيست كه واقعاً توسط هوش مصنوعي نوشته شده است، اما مردم به هر نوشته‌اي كه به وفور از علامت‌هاي نگارشي استفاده مي‌كند، مشكوك شده‌اند. كاملاً مشخص نيست كه چرا مدل‌هاي هوش مصنوعي مولد تمايل دارند متني را كه توليد مي‌كنند با خط تيره بلند پر كنند. مدل‌هاي زبان بزرگ (LLM) با استفاده از تعداد زيادي كتاب و محتواي آنلاين، مانند مقالات علمي، پست‌هاي انجمن‌هاي عمومي و مقالاتي از اين دست آموزش مي‌بينند و اين امكان وجود دارد كه علائم نگارشي كه در مطالب آموزشي به وفور ظاهر مي‌شوند، توسط آموزش‌دهندگان هوش مصنوعي به عنوان چيزي كه يك LLM بايد از استفاده از آن اجتناب كند، علامت‌گذاري نشده باشد.