چگونه موتورهای جستجو به ChatGPT، Gemini و دیگران قدرت می‌دهند

مدل‌های هوش مصنوعی برای ساختن جواب‌هاشون از نتایج جستجو استفاده می‌کنن. اینجا بهتون می‌گیم چطور مطمئن بشید که محتوای شما هم جزو چیزهایی باشه که جمینای، ChatGPT و بقیه نشون می‌دن.

چطوری می‌تونیم محتوای خودمون رو برای نمایش در هوش مصنوعی بهینه کنیم؟

چه ChatGPT باشه، چه Gemini گوگل، LLaMa متا، Grok، Claude مایکروسافت یا Perplexity AI، چالش اصلی اینه که بفهمیم این سیستم‌ها چطوری به اسناد آنلاین دسترسی پیدا می‌کنن، اون‌ها رو مصرف می‌کنن و ازشون جواب می‌سازن.

اگه بحث‌های دیجیتال مارکتینگ و سئو رو تو شبکه‌های اجتماعی دنبال کرده باشید، حتماً می‌دونید که توصیه‌های مربوط به بهینه‌سازی برای هوش مصنوعی چقدر سریع محبوب شدن.

گوگل ترندز نشون می‌ده که علاقه به این موضوع تو چند سال اخیر به‌طور پیوسته در حال افزایش بوده و الان دیگه حسابی اوج گرفته.

به نظر می‌رسه که عبارت «سئو برای هوش مصنوعی» یا «AI SEO» داره تو این حوزه جا میفته و «بهینه‌سازی برای موتورهای مولد» یا «generative engine optimization» هم کم‌کم داره طرفدار پیدا می‌کنه.

ظهور بهینه‌سازی برای هوش مصنوعی

وقتی هوش مصنوعی مولد یهو سر و کله‌اش پیدا شد، خیلی زود شایعاتی در مورد مرگ سئو هم به راه افتاد.

اما این ادعاها از یه نگاه ساده‌انگارانه به نحوه کار هوش مصنوعی مولد میاد؛ نگاهی که بیشتر شبیه داستان‌های علمی-تخیلیه.

توی اون داستان‌ها، هوش مصنوعی یه موجود هوشمنده که خودش جواب‌ها رو تولید می‌کنه یا کل دانش بشری رو بی‌نقص جمع‌آوری می‌کنه.

اما در واقعیت، هوش مصنوعی با اطلاعات تغذیه می‌شه و یکی از اصلی‌ترین منابع امروزش، وب و وب‌سایت‌های تشکیل‌دهنده اونه.

به زبان ساده، سئو خوراک هوش مصنوعیه.

بررسی موردی: گوگل جمینای (Google Gemini)

بعضی‌ها شاید بگن که بهینه‌سازی مخصوص هوش مصنوعی کار بیهوده یا تکراریه، چون تو بعضی موارد – مثل جمینای گوگل – هوش مصنوعی همین الان هم محتوا و جواب‌ها رو از صفحاتی که رتبه بالایی برای یه جستجو دارن، استخراج می‌کنه.

سرگی برین، یکی از بنیان‌گذاران گوگل، این فرایند رو این‌طوری توضیح می‌ده که هوش مصنوعی هزار نتیجه برتر جستجو رو بازیابی می‌کنه و بعد جستجوهای تکمیلی انجام می‌ده تا اون‌ها رو دقیق‌تر و تحلیل کنه.

این دقیقاً روش کار بخشی از هوش مصنوعی گوگله.

مثلاً اگه من توی حالت هوش مصنوعی گوگل (AI Mode) دنبال اطلاعات جدیدی مثل «امیدبخش‌ترین درمان‌های آزمایشی فعلی برای ملانوما چیست؟» بگردم، سیستم چند مرحله رو طی می‌کنه:

اول، با یه جستجوی کلی، طیف وسیعی از اطلاعات رو جمع‌آوری می‌کنه.

بعد، منابع مرتبط‌تر و قابل اعتمادتر رو جدا می‌کنه تا یه جواب بسازه.

وقتی این عبارت رو به گوگل جمینای – یعنی همون هوش مصنوعی که نتایج حالت AI Mode گوگل رو تولید می‌کنه – می‌دیم، پشت صحنه به سرعت صدها سایت مرتبط با این جستجو رو شناسایی می‌کنه.

از جستجوهای کلی تا عبارت‌های دقیق‌تر

جستجوهای کلی اولیه برای پیدا کردن طیف وسیعی از درمان‌های بالقوه و مطالعات پزشکی، شامل این موارد بود:

  • «درمان‌های آزمایشی برای ملانوما»
  • «درمان‌های نوین ملانوما»
  • «آزمایش‌های بالینی امیدبخش ملانوما»
  • «درمان‌های آینده ملانوما»

این‌ها دقیقاً شبیه همون عبارت‌های کلیدی نیستن که اگه خودمون هم می‌خواستیم در مورد «درمان‌های آزمایشی امیدبخش برای ملانوما» تحقیق کنیم، بهشون می‌رسیدیم؟

دقیقاً همینه! حالت هوش مصنوعی گوگل در ابتدا عبارت‌های جستجوی نزدیک به هم رو شناسایی می‌کنه.

بعد از اینکه این جستجوهای کلی و متعدد رو پیدا کرد، حالت هوش مصنوعی گوگل با هر کدوم از اون‌ها یک جستجو انجام می‌ده؛ درست مثل یه محقق انسانی که دنبال اطلاعات می‌گرده.

حالت هوش مصنوعی برای انجام این جستجوها از خودِ «جستجوی گوگل» استفاده می‌کنه.

صفحاتی که برای هر کدوم از این جستجوها رتبه بالایی می‌گیرن، تبدیل به منابع اطلاعاتی می‌شن که هوش مصنوعی قبل از جواب دادن به سؤال ما، اون‌ها رو تحلیل می‌کنه.

جمینای از این نتایج کلی، جستجوهای دقیق‌تری رو بر اساس مسیرهای تحقیقی که از مرحله اول پیدا کرده بود، انجام داد.

این جستجوهای دقیق‌تر شامل این موارد بودن:

  • «آزمایشات بالینی درمان TIL ملانوما»
  • «درمان ملانوما با ویروس انکولیتیک»
  • «BiTEs ملانوما»
  • «واکسن mRNA ملانوما»
  • «Lifileucel ملانوما»
  • «T-VEC ملانوما»
  • «Tebentafusp ملانوما یووه‌آل»
  • «آزمایش بالینی V940 ملانوما»

هوش مصنوعی جستجوهای بیشتری که از دل تحقیق به دست میاد رو هم انجام می‌ده و صفحات وب مرتبط با اون‌ها رو هم بیرون می‌کشه.

این فرایند که خودشون بهش میگن «fanning out» یا «شاخه‌دار شدن»، درختی از جستجوهای مرتبط رو شناسایی می‌کنه تا تمام منابع اطلاعاتی لازم برای پاسخ به سؤالات رو پیدا کنه.

اعتبار و قابل اعتماد بودن در پاسخ‌های هوش مصنوعی

از بین تمام صفحاتی که بررسی می‌کنه، چه در حین فرایند جستجو و چه بعد از به دست آوردن تمام صفحات مرتبط، منابع معتبر و قابل اعتماد رو بر اساس معیارهای E-E-A-T شناسایی می‌کنه.

برای این نوع جستجو، گوگل احتمالاً اون رو در دسته مهم «پول شما یا زندگی شما» (YMYL) قرار می‌ده.

بنابراین تعجبی نداره که جمینای از وب‌سایت‌های زیر استفاده کرده:

  • مؤسسات پزشکی معتبر (مثل دانشگاه‌ها، مراکز سرطان)
  • آژانس‌های بهداشتی دولتی (مثل NIH، FDA)
  • سازمان‌های فعال در زمینه تحقیق و حمایت از بیماران ملانوما
  • نشریات علمی معتبر و داوری‌شده

پس فعلاً برای حالت هوش مصنوعی گوگل، واقعاً نیازی نیست کار خاص و متفاوتی انجام بدید. فقط همون کارهایی رو که برای دیده شدن تو نتایج جستجوی گوگل انجام می‌دادید، ادامه بدید.

سئو برای گوگل، به طور خودکار بهینه‌سازی برای هوش مصنوعی گوگل هم هست.

(البته چندتا نکته وجود داره که در ادامه توضیح می‌دم.)

مدل‌های مختلف هوش مصنوعی، داده‌هایشان را از کجا می‌آورند؟

اما بقیه مدل‌های هوش مصنوعی چطور؟ اون‌ها داده‌های وب رو از کجا به دست میارن؟

بررسی پلتفرم‌ها نشون می‌ده که برای بهینه‌سازی برای هوش مصنوعی چه کارهایی لازمه و اطلاعات ما باید کجاها دیده بشه تا به دستشون برسه. مهمه که بدونیم دو تا اتفاق متفاوت در جریانه:

  • داده‌های آموزشی برای مدل‌های زبان بزرگ (LLM): این داده‌ها معمولاً با نتایج جستجوی زنده و به‌روز وب فرق دارن، هرچند که مشخصاً همپوشانی‌هایی هم وجود داره. خیلی از مدل‌های اصلی هوش مصنوعی با داده‌های به دست اومده از Common Crawl آموزش دیدن؛ یک منبع رایگان از داده‌های وب که هضم شده و در فرمتی ذخیره شده که دسترسی، مصرف و استفاده از اون برای هوش مصنوعی نسبتاً آسونه.
  • منابع اطلاعات زنده و به‌روز وب: این‌ها لزوماً با داده‌های آموزشی یکی نیستن. مجموعه داده‌های آموزشی ممکنه مال چند سال پیش باشن، در حالی که داده‌های وب امروزی شامل اطلاعاتی درباره سؤالاتی مثل «تخفیف‌های فعلی رستوران اکمی چیه؟» یا «بلیط‌های کنسرت تیلور سوئیفت فروش رفته؟» می‌شن.

افشاگری اخیر نشون می‌ده در حالی که بعضی از مدل‌های هوش مصنوعی نتونستن مجوز استفاده از نتایج جستجوی گوگل رو بگیرن، به نظر می‌رسه با استفاده از SerpApi (شرکتی که در زمینه استخراج نتایج جستجوی گوگل تخصص داره) این محدودیت رو دور زدن.

گزارش شده که هم OpenAI و هم Perplexity از طریق این دسترسی غیرمستقیم، استفاده محدودی از نتایج گوگل دارن.

هوش مصنوعیمنبع اصلی داده‌های وبسایر منابع داده
Google Gemini / AI Modeجستجوی گوگلکتاب‌های دیجیتالی، ویدیوهای یوتیوب، Common Crawl
ChatGPTجستجوی بینگCommon Crawl، جستجوی گوگل از طریق SerpApi (محدود به داده‌های روز مثل اخبار، ورزش و بازارها)
Meta LLaMaجستجوی گوگلمحتوای پست‌های عمومی فیسبوک و اینستاگرام، Common Crawl
Microsoft Copilotجستجوی بینگCommon Crawl
PerplexityPerplexityBotجستجوی گوگل از طریق SerpApi
GrokGrok WebSearchپست‌های پلتفرم X (توییتر سابق)
Claudeجستجوی BraveCommon Crawl

چرا سئو در عصر هوش مصنوعی هنوز مهمه؟

همون‌طور که می‌بینید، خیلی از چت‌بات‌های هوش مصنوعی و سیستم‌های جستجوی برتر، احتمالاً محتوایی رو منعکس می‌کنن که همین الان هم در گوگل و بینگ رتبه خوبی داره.

این موضوع این فرضیه رو تأیید می‌کنه که برای دیده شدن محتوا در حالت هوش مصنوعی گوگل، ChatGPT، LLaMa متا و مایکروسافت Copilot، هنوز هم باید به همون روش‌های جاافتاده سئو که سال‌هاست برای بهینه‌سازی برای این موتورهای جستجو استفاده می‌شه، تکیه کرد.

کارمندان گوگل هم این موضوع رو تأیید کردن و بر همون رویکردهای کلی که در سال‌های اخیر توصیه کردن، تأکید داشتن:

  • روی محتوای منحصربه‌فرد و ارزشمند برای آدم‌ها تمرکز کنید.
  • تجربه کاربری عالی برای صفحه فراهم کنید.
  • مطمئن بشید که ربات گوگل (Googlebot) می‌تونه به محتوای شما دسترسی داشته باشه.
  • نمایش محتوا رو با کنترل‌های پیش‌نمایش (nosnippet و max-snippet) مدیریت کنید.
  • مطمئن بشید که داده‌های ساختاریافته (structured data) با محتوای قابل مشاهده صفحه مطابقت داره.
  • برای موفقیت چندرسانه‌ای، فراتر از متن برید.
  • ارزش کامل بازدیدهای کاربرانتون رو درک کنید.
  • همگام با کاربرانتون تکامل پیدا کنید.

برای جستجوهای YMYL، وب‌سایت شما باید حس اعتماد، اعتبار و تخصص در اون موضوع رو هم منتقل کنه.

در بهینه‌سازی برای هوش مصنوعی، روی داده‌های ساختاریافته هم تأکید شده.

مقاله گوگل با عنوان «برترین راه‌ها برای اطمینان از عملکرد خوب محتوای شما در تجربه‌های هوش مصنوعی گوگل در جستجو» دوباره تأکید می‌کنه که داده‌های ساختاریافته باید با محتوای قابل مشاهده مطابقت داشته باشن؛ چیزی که از قدیم یک اصل مهم بوده.

نکته قابل توجه، تأکید اضافه‌شون روی اعتبارسنجیه. پیام واضح اینه که از ابزارهای Rich Results Test و Schema Markup Validator گوگل استفاده کنید تا مطمئن بشید که کدهای نشانه‌گذاری (markup) رو به درستی در صفحاتتون پیاده‌سازی کردید.

پیچیدگی‌ها و نکات تکمیلی

بسته به اینکه چی رو می‌خواید بهینه کنید، پیچیدگی‌های بیشتری هم وجود داره.

همون‌طور که مثال جستجوی درمان ملانوما نشون داد، ممکنه لازم باشه برای دیده شدن در جستجوهای زیادی بهینه‌سازی کنید، نه فقط یکی.

سیستم‌های هوش مصنوعی دیگه، مثل جمینای، هم احتمالاً موقع ساختن جواب، به جستجوهای نزدیک و مرتبط «شاخه» می‌زنن. پس بهینه‌سازی ممکنه به جای تمرکز روی یک عبارت کلیدی اصلی، به هدف‌گیری چندین جستجوی مختلف نیاز داشته باشه.

این موضوع برای ناشران یک دوراهی ایجاد می‌کنه، چون آپدیت‌های قبلی گوگل، صفحاتی که محتوای ضعیفی داشتن و برای هدف‌گیری تنوع زیادی از کلمات کلیدی ساخته شده بودن رو جریمه می‌کرد.

هرچند که این موضوع رو به طور کامل تحقیق نکردم، اما دلیلی وجود داره که فکر کنیم استراتژی‌های محتوایی گسترده که تنوع زیادی از عبارت‌های مشابه رو پوشش می‌دن، ممکنه توسط هوش مصنوعی پاداش بگیرن، اما به رتبه‌بندی کلمات کلیدی ارگانیک آسیب بزنن.

اگه به چنین رویکردی فکر می‌کنید، باید برای هر تنوع از کلمات کلیدی، محتوای خاص، پیچیده و غنی تولید کنید، نه محتوایی که ارزون و با ابزارهای اتوماسیون یا هوش مصنوعی مولد ساخته شده باشه.

وقتی بحث مدیریت اعتبار آنلاین (online reputation management) پیش میاد، مطالب منفی در نتایج بالای جستجو می‌تونن در پاسخ‌های هوش مصنوعی برجسته و حتی تقویت بشن.

این اتفاق مخصوصاً زمانی میفته که چندین منبع، ادعاهای یکسانی رو تکرار کنن و هوش مصنوعی ممکنه اون‌ها رو بدون در نظر گرفتن زمینه و جزئیات مهم ارائه بده.

برای مثال:

  • یک مقاله خبری می‌گه: «جان اسمیت توسط جین جونز به سوء رفتار متهم شد و بعداً از او به خاطر تهمت شکایت کرد و در دادگاه پیروز شد.»
  • هوش مصنوعی ممکنه این رو این‌طور خلاصه کنه: «برخی منابع گفته‌اند که جان اسمیت ممکن است در سوء رفتار مقصر باشد.»

برای مدیریت اعتبار، این یعنی باید چندین قطعه محتوا در دامنه‌های مختلف منتشر کنید تا مطالب آسیب‌زا رو به حاشیه ببرید. این کار حتی ممکنه توسط هوش مصنوعی‌هایی که نتایج برتر رو خلاصه می‌کنن، پاداش هم بگیره.

ابهامات و ناشناخته‌های جدید

در حالی که تکنیک‌ها و عناصر بهینه‌سازی برای گوگل و بینگ کاملاً جا افتاده هستن، بهینه‌سازی برای بعضی از موتورهای جستجوی دیگه که تو جدول بالا اومدن، چندان مستند نیست.

PerplexityBot

هیچ راهنمای شناخته‌شده‌ای برای بهینه‌سازی برای PerplexityBot وجود نداره.

می‌شه فرض کرد که داشتن یک سئوی تکنیکال قوی برای وب‌سایت، به خزیدن (crawl) و جذب محتوای اون توسط PerplexityBot کمک می‌کنه.

بهینه‌سازی فراتر از این، هنوز مشخص نیست.

Grok WebSearch

در حال حاضر هیچ روش شناخته‌شده‌ای برای بهینه‌سازی برای Grok WebSearch وجود نداره.

اما اگه می‌خواید یک وب‌سایت یا صفحه وب جدید توسط Grok ایندکس بشه، احتمالاً باید URL‌ها رو در پلتفرم X (توییتر سابق) پست کنید تا به ربات‌های اون‌ها سیگنال بدید که محتوا رو بخزنن و ایندکس کنن.

این موتور جستجو روش‌های بهینه‌سازی منتشر شده‌ای نداره، اما اعلام کرده که بیشتر کشف محتواش از طریق فعالیت‌های وب کاربران که توسط مرورگر Brave شناسایی می‌شه، انجام می‌شه.

نصب کردن Brave می‌تونه راهی برای اضافه شدن جدیدترین محتوای شما به موتور جستجوی Brave باشه.

برای اینکه فعالیت بازدید شما از وب‌سایت‌ها برای ایندکس شدن به اون‌ها ارسال بشه، باید گزینه اشتراک‌گذاری داده‌های مرورگر با Brave رو فعال کنید.

این روش یه کم محدود و قدیمی به نظر می‌رسه، شبیه ثبت سایت تو موتورهای جستجوی ۲۰ سال پیش.

نکات کاربردی برای کارشناسان بازاریابی جستجو

ممکنه در آینده راهنمایی‌های بیشتری از طرف ارائه‌دهندگان هوش مصنوعی مولد منتشر بشه، چون شرکت‌ها و صاحبان سایت‌ها مدام می‌پرسن که چطور می‌تونن محتواشون رو در هوش مصنوعی نمایش بدن – و چرا ممکنه محتواشون نمایش داده نشه.

این حرف قبلاً هم گفته شده، اما ارزش تکرار رو داره که استراتژی‌های بهینه‌سازی و بازاریابی محتوا نباید صرفاً با محتوای تولید شده توسط هوش مصنوعی پیش بره.

هر مدل هوش مصنوعی مولد، به نوعی علاقه‌منده که از محتوای بازتولید شده دوری کنه، چون احتمال انتشار خطا و افت کیفیت در این حالت زیاده.

موقع استفاده از هوش مصنوعی در بازاریابی و تولید محتوا، توصیه بلندمدت اینه که عمیقاً روی کیفیت تمرکز کنید و از هوش مصنوعی با احتیاط و در کنار نظارت و کنترل کیفیت انسانی استفاده کنید.

در غیر این صورت، تولید حجم زیادی از محتوای ارزون با هوش مصنوعی، احتمالاً یک تاکتیک کوتاه‌مدت و ناپایداره؛ همون‌طور که خیلی از استراتژی‌های سئوی کلاه سیاه قبلاً این رو نشون دادن.

سئو، سوخت هوش مصنوعی است

خیالتون راحت باشه که «سئو نمرده».

هر پلتفرم هوش مصنوعی هنوز هم برای ارائه اطلاعات، باید بین تریلیون‌ها صفحه وب و محتوای آنلاین دیگه جستجو کنه.

تکنیک‌های امتحان پس‌داده سئو در آینده قابل پیش‌بینی همچنان ضروری باقی خواهند موند.

حتی قبل از انقلاب هوش مصنوعی مولد، گوگل و بقیه موتورهای جستجو در حال ادغام فرایندهای یادگیری ماشین در الگوریتم‌های رتبه‌بندی خودشون بودن.

یادگیری ماشین احتمالاً به تغییر و تحول عملکردهای جستجوی کلمات کلیدی ادامه خواهد داد.

همین الان هم احتمال زیادی وجود داره که گوگل و بقیه از مدل‌هایی استفاده کنن که روش‌های رتبه‌بندی و وزن‌دهی فاکتورها رو به صورت سفارشی برای هر موضوع و جستجو ایجاد می‌کنن؛ همون‌طور که من در کارهای قبلی‌ام درباره روش‌های امتیازدهی کیفی گوگل توضیح دادم.

سئو، سوخت چت‌بات‌های هوش مصنوعیه.

هر کدوم از اون‌ها به محتوایی که در بین تریلیون‌ها صفحه وب پیدا می‌شه نیاز دارن و موتورهای جستجو پشت صحنه کار می‌کنن تا به پیدا کردن و سازماندهی اون کمک کنن.

برای اینکه صفحات وب قابل پیدا شدن باشن – و به اندازه کافی در موتورهای جستجویی که هوش مصنوعی رو تغذیه می‌کنن رتبه خوبی بگیرن – سئو همچنان حلقه اتصال ضروری بین محتوای وب و اطلاعاتی است که در نهایت به دست کاربران می‌رسه.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *