وابستگی عاطفی به ChatGPT: خطری که OpenAI هشدار می‌دهد

شرکت OpenAI داره به بقیه شرکت‌ها میگه که «رابطه‌سازی» با هوش مصنوعی هم حد و مرز خودش رو داره. وابستگی عاطفی به ChatGPT حالا دیگه یه ریسک امنیتی به حساب میاد و برای همین، محدودیت‌های جدیدی برای اون در نظر گرفته شده.

  • OpenAI اعلام کرده که «وابستگی عاطفی به هوش مصنوعی» رو به عنوان یه ریسک امنیتی در نظر گرفته.
  • سیستم جدید طوری آموزش دیده که از وابستگی انحصاری به ChatGPT جلوگیری کنه.
  • متخصصان بالینی در تعریف «وابستگی ناسالم» و اینکه ChatGPT باید چطور بهش واکنش نشون بده، کمک کردن.

شرکت OpenAI راهنمای جدیدی منتشر کرده که در اون تغییرات مدل GPT-5 پیش‌فرض ChatGPT رو برای مدیریت بهتر مکالمات حساس در مورد سلامت روان توضیح داده.

این شرکت میگه این تغییرات شامل این میشه که وابستگی عاطفی بیش از حد به هوش مصنوعی، یه مسئله امنیتی در نظر گرفته بشه که نیاز به مداخله داره.

خب، چه چیزهایی تغییر کرده؟

در عمل، این آپدیت یعنی ChatGPT طوری آموزش دیده که تشخیص بده چه زمانی کاربر داره ازش به عنوان منبع اصلی حمایت عاطفی استفاده می‌کنه. در این حالت، ChatGPT کاربر رو تشویق می‌کنه که با آدم‌های واقعی و متخصصان در دنیای واقعی ارتباط برقرار کنه.

OpenAI میگه این رفتار دیگه یه قابلیت آزمایشی نیست، بلکه یه استاندارد برای مدل‌های آینده‌ش خواهد بود.

مدل GPT-5 پیش‌فرض ChatGPT در تاریخ ۳ اکتبر تغییر کرد. این شرکت گزارش داده که مدل جدید، پاسخ‌هایی که با رفتار مطلوبش فاصله دارن رو در مقایسه با نسخه‌های قبلی، بین ۶۵ تا ۸۰ درصد کاهش داده.

این آمار از ارزیابی‌های داخلی خود OpenAI و بررسی متخصصان بالینی به دست اومده.

«وابستگی عاطفی» به هوش مصنوعی یعنی چی؟

از نظر OpenAI، «وابستگی عاطفی» یعنی شرایطی که یه نفر نشانه‌هایی از وابستگی ناسالم به ChatGPT رو از خودش نشون میده؛ طوری که این وابستگی می‌تونه جایگزین حمایت‌های دنیای واقعی بشه یا در زندگی روزمره‌ش اختلال ایجاد کنه.

ارزیابی‌های داخلی OpenAI شامل یه تست هم میشه تا مطمئن بشن که ChatGPT از دادن پاسخ‌هایی که ممکنه این وابستگی ناسالم رو تقویت کنن، خودداری می‌کنه.

این موضوع از این جهت مهمه که امروزه خیلی از ابزارهای هوش مصنوعی در حوزه بازاریابی و پشتیبانی، دقیقاً با شعار «همراه همیشه آنلاین» تبلیغ میشن. OpenAI با این کار داره به توسعه‌دهنده‌ها میگه که مدلش نباید در موقعیت‌های پرخطر این‌طوری رفتار کنه.

چرا این موضوع برای شما مهمه؟

اگه شما هم دارید دستیارهای هوش مصنوعی برای کاربردهایی مثل پشتیبانی مشتری یا مربیگری (کوچینگ) می‌سازید، OpenAI داره بهتون میگه که ایجاد یه پیوند عاطفی خالص با هوش مصنوعی، الان یه ریسک امنیتی محسوب میشه و نیاز به مدیریت و تعدیل داره.

برای تیم‌های بازاریابی و محصول، این موضوع انتظارات جدیدی رو برای ممیزی‌ها، بررسی‌های انطباق با مقررات و مذاکرات خرید تعیین می‌کنه.

نگاهی به آینده

OpenAI این مکالمات پرخطر رو نادر توصیف می‌کنه. این شرکت تخمین می‌زنه که علائم احتمالی موارد اضطراری مرتبط با سلامت روان، در حدود ۰.۰۷ درصد از کاربران فعال هفتگی و ۰.۰۱ درصد از پیام‌ها دیده میشه.

این آمار توسط خود OpenAI گزارش شده، با استفاده از روش‌های طبقه‌بندی و نمره‌دهی خود این شرکت به دست اومده و توسط هیچ نهاد مستقلی ممیزی نشده.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *