
۴۵٪ پاسخهای هوش مصنوعی در خبررسانی مشکلدار است
یک پژوهش بینالمللی روی ۲,۷۰۹ پاسخ از دستیارهای هوش مصنوعی نشون داده که ۴۵٪ اونها مشکلات اساسی و ۸۱٪ به هر حال یه ایرادی داشتن. Gemini هم بیشترین مشکل رو در بخش ذکر منبع داشته.
طبق یک مطالعه مشترک از اتحادیه پخش اروپا (EBU) و بیبیسی، دستیارهای هوش مصنوعی مطرح، تقریباً توی نصف جوابهایی که بررسی شدن، محتوای خبری رو به شکل نادرست یا تحریفشده ارائه کردن.
این پژوهش، نسخههای رایگان و عمومی ChatGPT، Copilot، Gemini و Perplexity رو موقع جواب دادن به سوالهای خبری، به ۱۴ زبان مختلف و با همکاری ۲۲ رسانه عمومی توی ۱۸ کشور دنیا بررسی کرده.
اتحادیه پخش اروپا موقع اعلام این نتایج گفته:
«تحریف سیستماتیک اخبار توسط هوش مصنوعی، یه مشکل فراگیره که توی زبانها و کشورهای مختلف به طور یکسان دیده میشه.»
نتایج این مطالعه چی بود؟
در مجموع ۲,۷۰۹ پاسخ اصلی مورد ارزیابی قرار گرفت و در کنارش، نمونههای کیفی هم از سوالات اختصاصی که پرسیده شده بود، بررسی شدن.
در کل، ۴۵٪ از جوابها حداقل یه مشکل اساسی داشتن و ۸۱٪ هم بالاخره یه ایرادی داشتن. رایجترین مشکل هم مربوط به بخش ذکر منبع بود که توی ۳۱٪ از جوابها به شکل جدی دیده میشد.
عملکرد هر کدوم از دستیارها چطور بود؟
عملکرد هر پلتفرم با اون یکی فرق داشت. گوگل Gemini با اختلاف، بیشترین مشکل رو داشت: ۷۶٪ از جوابهاش ایرادات اساسی داشتن که دلیل اصلی این موضوع هم، مشکلات مربوط به ذکر منبع توی ۷۲٪ از جوابها بود.
در طرف مقابل، آمار مشکلات اساسی برای بقیه دستیارها نهایتاً ۳۷٪ بود و توی بخش ذکر منبع هم زیر ۲۵٪ خطا داشتن.
چند نمونه از این خطاها
مشکلات دقت، بیشتر شامل اطلاعات قدیمی یا غلط بود.
مثلاً، چندتا از دستیارها اواخر ماه مِی، هنوز پاپ بندیکت شانزدهم رو پاپ فعلی معرفی میکردن، در حالی که اون دسامبر ۲۰۲۲ فوت کرده بود. یا مثلاً Gemini تغییرات قوانین مربوط به ویپهای یکبارمصرف رو کاملاً اشتباه توضیح داده بود.
روش انجام این پژوهش چطور بود؟
شرکتکنندهها توی بازه زمانی ۲۴ می تا ۱۰ ژوئن، با استفاده از یه مجموعه شامل ۳۰ سوال اصلی و چندتا سوال محلیِ اختیاری، از دستیارهای هوش مصنوعی جواب گرفتن.
این مطالعه فقط روی نسخههای رایگان و عمومی هر دستیار تمرکز کرده تا نتایجش به تجربه کاربریِ آدمهای معمولی نزدیکتر باشه.
خیلی از رسانههایی که توی این پژوهش بودن، به طور معمول با یه سری محدودیتهای فنی، دسترسی دستیارهای هوش مصنوعی به محتواشون رو میبندن. اما برای دوره انجام این تحقیق، این محدودیتها رو موقتاً برداشتن و بعد از تموم شدنش، دوباره فعال کردن.
اهمیت این موضوع برای ما چیه؟
وقتی برای تحقیق کلمات کلیدی، ایدهیابی یا برنامهریزی برای تولید محتوا از دستیارهای هوش مصنوعی استفاده میکنید، نتایج این مطالعه یه زنگ خطره که بهمون یادآوری میکنه حتماً باید ادعاها و اطلاعاتی که بهمون میده رو با منابع اصلی چک کنیم.
به عنوان صاحب یک وبسایت، این موضوع میتونه روی نحوه نمایش محتوای شما توی جوابهای هوش مصنوعی تأثیر بذاره. این نرخ بالای خطا، ریسک اینکه خلاصههایی با اطلاعات غلط یا بیاساس به نقل از سایت شما ساخته بشه رو خیلی بالا میبره.
حالا باید منتظر چی باشیم؟
اتحادیه پخش اروپا و بیبیسی در کنار این گزارش، یک جعبهابزار برای حفظ سلامت خبر در دستیارهای هوش مصنوعی هم منتشر کردن که توش راهنماییهایی برای شرکتهای فناوری، رسانهها و محققها وجود داره.
خبرگزاری رویترز هم به نقل از EBU گزارش داده که وابستگی روزافزون مردم به این دستیارها برای گرفتن اخبار، میتونه اعتماد عمومی به رسانهها رو از بین ببره.
همونطور که «ژان فیلیپ دی تندر»، مدیر رسانهای EBU، گفته:
«وقتی مردم ندونن به چی باید اعتماد کنن، کارشون به جایی میرسه که به هیچی اعتماد نمیکنن و این موضوع میتونه مشارکت اجتماعی و دموکراتیک رو تضعیف کنه.»

پاسخی بگذارید