۴۵٪ پاسخ‌های هوش مصنوعی در خبررسانی مشکل‌دار است

یک پژوهش بین‌المللی روی ۲,۷۰۹ پاسخ از دستیارهای هوش مصنوعی نشون داده که ۴۵٪ اون‌ها مشکلات اساسی و ۸۱٪ به هر حال یه ایرادی داشتن. Gemini هم بیشترین مشکل رو در بخش ذکر منبع داشته.

طبق یک مطالعه مشترک از اتحادیه پخش اروپا (EBU) و بی‌بی‌سی، دستیارهای هوش مصنوعی مطرح، تقریباً توی نصف جواب‌هایی که بررسی شدن، محتوای خبری رو به شکل نادرست یا تحریف‌شده ارائه کردن.

این پژوهش، نسخه‌های رایگان و عمومی ChatGPT، Copilot، Gemini و Perplexity رو موقع جواب دادن به سوال‌های خبری، به ۱۴ زبان مختلف و با همکاری ۲۲ رسانه عمومی توی ۱۸ کشور دنیا بررسی کرده.

اتحادیه پخش اروپا موقع اعلام این نتایج گفته:

«تحریف سیستماتیک اخبار توسط هوش مصنوعی، یه مشکل فراگیره که توی زبان‌ها و کشورهای مختلف به طور یکسان دیده می‌شه.»

نتایج این مطالعه چی بود؟

در مجموع ۲,۷۰۹ پاسخ اصلی مورد ارزیابی قرار گرفت و در کنارش، نمونه‌های کیفی هم از سوالات اختصاصی که پرسیده شده بود، بررسی شدن.

در کل، ۴۵٪ از جواب‌ها حداقل یه مشکل اساسی داشتن و ۸۱٪ هم بالاخره یه ایرادی داشتن. رایج‌ترین مشکل هم مربوط به بخش ذکر منبع بود که توی ۳۱٪ از جواب‌ها به شکل جدی دیده می‌شد.

عملکرد هر کدوم از دستیارها چطور بود؟

عملکرد هر پلتفرم با اون یکی فرق داشت. گوگل Gemini با اختلاف، بیشترین مشکل رو داشت: ۷۶٪ از جواب‌هاش ایرادات اساسی داشتن که دلیل اصلی این موضوع هم، مشکلات مربوط به ذکر منبع توی ۷۲٪ از جواب‌ها بود.

در طرف مقابل، آمار مشکلات اساسی برای بقیه دستیارها نهایتاً ۳۷٪ بود و توی بخش ذکر منبع هم زیر ۲۵٪ خطا داشتن.

چند نمونه از این خطاها

مشکلات دقت، بیشتر شامل اطلاعات قدیمی یا غلط بود.

مثلاً، چندتا از دستیارها اواخر ماه مِی، هنوز پاپ بندیکت شانزدهم رو پاپ فعلی معرفی می‌کردن، در حالی که اون دسامبر ۲۰۲۲ فوت کرده بود. یا مثلاً Gemini تغییرات قوانین مربوط به ویپ‌های یک‌بارمصرف رو کاملاً اشتباه توضیح داده بود.

روش انجام این پژوهش چطور بود؟

شرکت‌کننده‌ها توی بازه زمانی ۲۴ می تا ۱۰ ژوئن، با استفاده از یه مجموعه شامل ۳۰ سوال اصلی و چندتا سوال محلیِ اختیاری، از دستیارهای هوش مصنوعی جواب گرفتن.

این مطالعه فقط روی نسخه‌های رایگان و عمومی هر دستیار تمرکز کرده تا نتایجش به تجربه کاربریِ آدم‌های معمولی نزدیک‌تر باشه.

خیلی از رسانه‌هایی که توی این پژوهش بودن، به طور معمول با یه سری محدودیت‌های فنی، دسترسی دستیارهای هوش مصنوعی به محتواشون رو می‌بندن. اما برای دوره انجام این تحقیق، این محدودیت‌ها رو موقتاً برداشتن و بعد از تموم شدنش، دوباره فعال کردن.

اهمیت این موضوع برای ما چیه؟

وقتی برای تحقیق کلمات کلیدی، ایده‌یابی یا برنامه‌ریزی برای تولید محتوا از دستیارهای هوش مصنوعی استفاده می‌کنید، نتایج این مطالعه یه زنگ خطره که بهمون یادآوری می‌کنه حتماً باید ادعاها و اطلاعاتی که بهمون می‌ده رو با منابع اصلی چک کنیم.

به عنوان صاحب یک وب‌سایت، این موضوع می‌تونه روی نحوه نمایش محتوای شما توی جواب‌های هوش مصنوعی تأثیر بذاره. این نرخ بالای خطا، ریسک این‌که خلاصه‌هایی با اطلاعات غلط یا بی‌اساس به نقل از سایت شما ساخته بشه رو خیلی بالا می‌بره.

حالا باید منتظر چی باشیم؟

اتحادیه پخش اروپا و بی‌بی‌سی در کنار این گزارش، یک جعبه‌ابزار برای حفظ سلامت خبر در دستیارهای هوش مصنوعی هم منتشر کردن که توش راهنمایی‌هایی برای شرکت‌های فناوری، رسانه‌ها و محقق‌ها وجود داره.

خبرگزاری رویترز هم به نقل از EBU گزارش داده که وابستگی روزافزون مردم به این دستیارها برای گرفتن اخبار، می‌تونه اعتماد عمومی به رسانه‌ها رو از بین ببره.

همون‌طور که «ژان فیلیپ دی تندر»، مدیر رسانه‌ای EBU، گفته:

«وقتی مردم ندونن به چی باید اعتماد کنن، کارشون به جایی می‌رسه که به هیچی اعتماد نمی‌کنن و این موضوع می‌تونه مشارکت اجتماعی و دموکراتیک رو تضعیف کنه.»

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *