هوش مصنوعی بالاخره پول میده؟ با این استاندارد لایسنسینگ جدید و خیلی ساده!
یک استاندارد جدید به اسم «لایسنسینگ واقعاً ساده» (Really Simple Licensing) یا به اختصار RSL، این هدف رو دنبال میکنه که به ناشران وب این قدرت رو بده تا برای نحوه استفاده سیستمهای هوش مصنوعی از محتواشون، قوانین و شرایط خودشون رو تعیین کنن.
امروز، ناشران بزرگی مثل ردیت، یاهو، مدیوم و کورا حمایت خودشون رو از این استاندارد جدید اعلام کردن. در تئوری، RSL به وبسایتها این اهرم فشار رو میده که وقتی شرکتهای هوش مصنوعی اطلاعاتشون رو جمعآوری (scrape) میکنن و مدلهاشون رو باهاش آموزش میدن، درخواست هزینه کنن.
چرا این موضوع برای ما مهمه؟
تا الان، ناشران فقط میتونستن از طریق فایل robots.txt به رباتها اجازه دسترسی بدن یا جلوشون رو بگیرن. RSL این مدل رو ارتقا میده و به ناشران اجازه میده که شرایط لایسنس و حق امتیاز رو مستقیماً توی فایلهای robots.txt، کتابهای آنلاین، ویدیوها و دیتاستهاشون قرار بدن.
این استاندارد چطوری کار میکنه؟
ناشران میتونن هزینههایی مثل حق اشتراک، پرداخت به ازای هر خزش (pay-per-crawl)، یا پرداخت به ازای هر استنتاج (pay-per-inference) رو تعیین کنن (یعنی وقتی هوش مصنوعی در پاسخهاش از محتوای اونها استفاده میکنه، باید هزینه پرداخت بشه).
- رباتهایی که برای اهداف غیرآموزشی (مثل ایندکس کردن برای موتورهای جستجو یا آرشیو کردن) فعالیت میکنن، میتونن مثل قبل به کارشون ادامه بدن.
- موفقیت RSL به همکاری شرکتهای هوش مصنوعی بستگی داره. بدون همراهی اونها، اجرای این قوانین چالشبرانگیز خواهد بود.
نگاه کلی به ماجرا
مجموعه RSL Collective، به رهبری «اکارت والتر» (یکی از خالقین RSS) و «داگ لیدز» (مدیرعامل سابق Ask.com)، دارن این استاندارد رو ترویج میدن.
- اونها RSL رو یک مدل کسبوکار مقیاسپذیر برای وب میدونن که از روی گروههای حقوقی مثل ASCAP در صنعت موسیقی الگوبرداری شده.
- شرکت Fastly داره با RSL همکاری میکنه تا یک تکنولوژی «نگهبان» (gatekeeper) بسازه که بتونه بر اساس رعایت قوانین لایسنس، به رباتها اجازه ورود بده یا مسدودشون کنه.
حامیان این طرح
برندهایی که از RSL حمایت میکنند عبارتند از:
- ردیت (Reddit)
- کورا (Quora)
- یاهو (Yahoo)
- مدیوم (Medium)
- ادویک (Adweek)
- فستلی (Fastly)
- اینترنت برندز (Internet Brands)
- انتشارات امآیتی (The MIT Press)
- اورایلی (O’Reilly)
- پیپل (People Inc.)
- ویکیهاو (wikiHow)
- زیف دیویس (Ziff Davis)
نکتهای که باید بدونید
بعضی از غولهای رسانهای (مثل نیویورک تایمز، نیوز کورپ و واکس مدیا) قبلاً قراردادهای لایسنس مستقیم با شرکتهای هوش مصنوعی بستن. اما هدف RSL اینه که این فرآیند رو برای هر ناشری، چه بزرگ و چه کوچیک، سادهتر کنه.
اما چالش اصلی کجاست؟
سازندگان مدلهای هوش مصنوعی سابقهی خوبی در نادیده گرفتن فایل robots.txt دارن. بدون یک اهرم اجرایی قوی، موفقیت RSL کاملاً به این بستگی داره که آیا بازیگران اصلی حوزه هوش مصنوعی این استاندارد رو میپذیرن یا نه.
RSL اولین تلاش در این زمینه نیست
کلودفلر (Cloudflare) که حدود ۲۰٪ از اینترنت رو پشتیبانی میکنه، اون هم داره با رباتهای هوش مصنوعی برخورد میکنه. این شرکت به طور پیشفرض خزندههای هوش مصنوعی رو مسدود میکنه و در حال آزمایش یک سیستم پرداخت به ازای هر خزش (Pay Per Crawl) هست که برای دسترسی دادن به شرکتهای هوش مصنوعی ازشون هزینه میگیره. این یک تلاش موازی با RSL محسوب میشه که میتونه نحوه دسترسی شرکتهای هوش مصنوعی به دادههای آموزشی رو کاملاً تغییر بده.
پاسخی بگذارید