هوش مصنوعی بالاخره پول میده؟ با این استاندارد لایسنسینگ جدید و خیلی ساده!

یک استاندارد جدید به اسم «لایسنسینگ واقعاً ساده» (Really Simple Licensing) یا به اختصار RSL، این هدف رو دنبال می‌کنه که به ناشران وب این قدرت رو بده تا برای نحوه استفاده سیستم‌های هوش مصنوعی از محتواشون، قوانین و شرایط خودشون رو تعیین کنن.

امروز، ناشران بزرگی مثل ردیت، یاهو، مدیوم و کورا حمایت خودشون رو از این استاندارد جدید اعلام کردن. در تئوری، RSL به وب‌سایت‌ها این اهرم فشار رو می‌ده که وقتی شرکت‌های هوش مصنوعی اطلاعاتشون رو جمع‌آوری (scrape) می‌کنن و مدل‌هاشون رو باهاش آموزش می‌دن، درخواست هزینه کنن.

چرا این موضوع برای ما مهمه؟

تا الان، ناشران فقط می‌تونستن از طریق فایل robots.txt به ربات‌ها اجازه دسترسی بدن یا جلوشون رو بگیرن. RSL این مدل رو ارتقا می‌ده و به ناشران اجازه می‌ده که شرایط لایسنس و حق امتیاز رو مستقیماً توی فایل‌های robots.txt، کتاب‌های آنلاین، ویدیوها و دیتاست‌هاشون قرار بدن.

این استاندارد چطوری کار می‌کنه؟

ناشران می‌تونن هزینه‌هایی مثل حق اشتراک، پرداخت به ازای هر خزش (pay-per-crawl)، یا پرداخت به ازای هر استنتاج (pay-per-inference) رو تعیین کنن (یعنی وقتی هوش مصنوعی در پاسخ‌هاش از محتوای اون‌ها استفاده می‌کنه، باید هزینه پرداخت بشه).

  • ربات‌هایی که برای اهداف غیرآموزشی (مثل ایندکس کردن برای موتورهای جستجو یا آرشیو کردن) فعالیت می‌کنن، می‌تونن مثل قبل به کارشون ادامه بدن.
  • موفقیت RSL به همکاری شرکت‌های هوش مصنوعی بستگی داره. بدون همراهی اون‌ها، اجرای این قوانین چالش‌برانگیز خواهد بود.

نگاه کلی به ماجرا

مجموعه RSL Collective، به رهبری «اکارت والتر» (یکی از خالقین RSS) و «داگ لیدز» (مدیرعامل سابق Ask.com)، دارن این استاندارد رو ترویج می‌دن.

  • اون‌ها RSL رو یک مدل کسب‌وکار مقیاس‌پذیر برای وب می‌دونن که از روی گروه‌های حقوقی مثل ASCAP در صنعت موسیقی الگوبرداری شده.
  • شرکت Fastly داره با RSL همکاری می‌کنه تا یک تکنولوژی «نگهبان» (gatekeeper) بسازه که بتونه بر اساس رعایت قوانین لایسنس، به ربات‌ها اجازه ورود بده یا مسدودشون کنه.

حامیان این طرح

برندهایی که از RSL حمایت می‌کنند عبارتند از:

  • ردیت (Reddit)
  • کورا (Quora)
  • یاهو (Yahoo)
  • مدیوم (Medium)
  • ادویک (Adweek)
  • فستلی (Fastly)
  • اینترنت برندز (Internet Brands)
  • انتشارات ام‌آی‌تی (The MIT Press)
  • اورایلی (O’Reilly)
  • پیپل (People Inc.)
  • ویکی‌هاو (wikiHow)
  • زیف دیویس (Ziff Davis)

نکته‌ای که باید بدونید

بعضی از غول‌های رسانه‌ای (مثل نیویورک تایمز، نیوز کورپ و واکس مدیا) قبلاً قراردادهای لایسنس مستقیم با شرکت‌های هوش مصنوعی بستن. اما هدف RSL اینه که این فرآیند رو برای هر ناشری، چه بزرگ و چه کوچیک، ساده‌تر کنه.

اما چالش اصلی کجاست؟

سازندگان مدل‌های هوش مصنوعی سابقه‌ی خوبی در نادیده گرفتن فایل robots.txt دارن. بدون یک اهرم اجرایی قوی، موفقیت RSL کاملاً به این بستگی داره که آیا بازیگران اصلی حوزه هوش مصنوعی این استاندارد رو می‌پذیرن یا نه.

RSL اولین تلاش در این زمینه نیست

کلودفلر (Cloudflare) که حدود ۲۰٪ از اینترنت رو پشتیبانی می‌کنه، اون هم داره با ربات‌های هوش مصنوعی برخورد می‌کنه. این شرکت به طور پیش‌فرض خزنده‌های هوش مصنوعی رو مسدود می‌کنه و در حال آزمایش یک سیستم پرداخت به ازای هر خزش (Pay Per Crawl) هست که برای دسترسی دادن به شرکت‌های هوش مصنوعی ازشون هزینه می‌گیره. این یک تلاش موازی با RSL محسوب می‌شه که می‌تونه نحوه دسترسی شرکت‌های هوش مصنوعی به داده‌های آموزشی رو کاملاً تغییر بده.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *