
وابستگی عاطفی به ChatGPT: خطری که OpenAI هشدار میدهد
شرکت OpenAI داره به بقیه شرکتها میگه که «رابطهسازی» با هوش مصنوعی هم حد و مرز خودش رو داره. وابستگی عاطفی به ChatGPT حالا دیگه یه ریسک امنیتی به حساب میاد و برای همین، محدودیتهای جدیدی برای اون در نظر گرفته شده.
- OpenAI اعلام کرده که «وابستگی عاطفی به هوش مصنوعی» رو به عنوان یه ریسک امنیتی در نظر گرفته.
 - سیستم جدید طوری آموزش دیده که از وابستگی انحصاری به ChatGPT جلوگیری کنه.
 - متخصصان بالینی در تعریف «وابستگی ناسالم» و اینکه ChatGPT باید چطور بهش واکنش نشون بده، کمک کردن.
 

شرکت OpenAI راهنمای جدیدی منتشر کرده که در اون تغییرات مدل GPT-5 پیشفرض ChatGPT رو برای مدیریت بهتر مکالمات حساس در مورد سلامت روان توضیح داده.
این شرکت میگه این تغییرات شامل این میشه که وابستگی عاطفی بیش از حد به هوش مصنوعی، یه مسئله امنیتی در نظر گرفته بشه که نیاز به مداخله داره.
خب، چه چیزهایی تغییر کرده؟
در عمل، این آپدیت یعنی ChatGPT طوری آموزش دیده که تشخیص بده چه زمانی کاربر داره ازش به عنوان منبع اصلی حمایت عاطفی استفاده میکنه. در این حالت، ChatGPT کاربر رو تشویق میکنه که با آدمهای واقعی و متخصصان در دنیای واقعی ارتباط برقرار کنه.
OpenAI میگه این رفتار دیگه یه قابلیت آزمایشی نیست، بلکه یه استاندارد برای مدلهای آیندهش خواهد بود.
مدل GPT-5 پیشفرض ChatGPT در تاریخ ۳ اکتبر تغییر کرد. این شرکت گزارش داده که مدل جدید، پاسخهایی که با رفتار مطلوبش فاصله دارن رو در مقایسه با نسخههای قبلی، بین ۶۵ تا ۸۰ درصد کاهش داده.
این آمار از ارزیابیهای داخلی خود OpenAI و بررسی متخصصان بالینی به دست اومده.
«وابستگی عاطفی» به هوش مصنوعی یعنی چی؟
از نظر OpenAI، «وابستگی عاطفی» یعنی شرایطی که یه نفر نشانههایی از وابستگی ناسالم به ChatGPT رو از خودش نشون میده؛ طوری که این وابستگی میتونه جایگزین حمایتهای دنیای واقعی بشه یا در زندگی روزمرهش اختلال ایجاد کنه.
ارزیابیهای داخلی OpenAI شامل یه تست هم میشه تا مطمئن بشن که ChatGPT از دادن پاسخهایی که ممکنه این وابستگی ناسالم رو تقویت کنن، خودداری میکنه.
این موضوع از این جهت مهمه که امروزه خیلی از ابزارهای هوش مصنوعی در حوزه بازاریابی و پشتیبانی، دقیقاً با شعار «همراه همیشه آنلاین» تبلیغ میشن. OpenAI با این کار داره به توسعهدهندهها میگه که مدلش نباید در موقعیتهای پرخطر اینطوری رفتار کنه.
چرا این موضوع برای شما مهمه؟
اگه شما هم دارید دستیارهای هوش مصنوعی برای کاربردهایی مثل پشتیبانی مشتری یا مربیگری (کوچینگ) میسازید، OpenAI داره بهتون میگه که ایجاد یه پیوند عاطفی خالص با هوش مصنوعی، الان یه ریسک امنیتی محسوب میشه و نیاز به مدیریت و تعدیل داره.
برای تیمهای بازاریابی و محصول، این موضوع انتظارات جدیدی رو برای ممیزیها، بررسیهای انطباق با مقررات و مذاکرات خرید تعیین میکنه.
نگاهی به آینده
OpenAI این مکالمات پرخطر رو نادر توصیف میکنه. این شرکت تخمین میزنه که علائم احتمالی موارد اضطراری مرتبط با سلامت روان، در حدود ۰.۰۷ درصد از کاربران فعال هفتگی و ۰.۰۱ درصد از پیامها دیده میشه.
این آمار توسط خود OpenAI گزارش شده، با استفاده از روشهای طبقهبندی و نمرهدهی خود این شرکت به دست اومده و توسط هیچ نهاد مستقلی ممیزی نشده.

پاسخی بگذارید