هوش مصنوعی چیست؟

هوش مصنوعی (AI) فناوری‌ایه که به کامپیوترها و ماشین‌ها این قابلیت رو می‌ده تا یادگیری، درک، حل مسئله، تصمیم‌گیری، خلاقیت و استقلال انسان رو شبیه‌سازی کنن.

هوش مصنوعی چیه؟

هوش مصنوعی (AI) فناوری‌ایه که به کامپیوترها و ماشین‌ها این قابلیت رو می‌ده تا یادگیری، درک، حل مسئله، تصمیم‌گیری، خلاقیت و استقلال انسان رو شبیه‌سازی کنن.

برنامه‌ها و دستگاه‌هایی که به هوش مصنوعی مجهز شدن، می‌تونن اشیاء رو ببینن و شناسایی کنن. می‌تونن زبان انسان رو بفهمن و بهش پاسخ بدن. می‌تونن از اطلاعات و تجربیات جدید یاد بگیرن. می‌تونن به کاربرا و متخصصان، پیشنهادهای دقیقی بدن. می‌تونن مستقل عمل کنن و جایگزین هوش یا دخالت انسان بشن (یه مثال کلاسیکش ماشین خودرانه).

اما تو سال ۲۰۲۴، بیشتر محققان، متخصصان و تیترهای خبری مرتبط با هوش مصنوعی، روی پیشرفت‌های چشمگیر هوش مصنوعی مولد (generative AI) تمرکز کردن؛ فناوری‌ای که می‌تونه متن، تصویر، ویدیو و محتواهای اورجینال دیگه‌ای رو خلق کنه. برای اینکه هوش مصنوعی مولد رو کامل درک کنیم، مهمه که اول با فناوری‌هایی که ابزارهای هوش مصنوعی مولد بر پایه‌ی اون‌ها ساخته شدن، آشنا بشیم: یادگیری ماشین (ML) و یادگیری عمیق (deep learning).

یادگیری ماشین

یه راه ساده برای فکر کردن به هوش مصنوعی اینه که اون رو به عنوان یه سری مفاهیم تودرتو یا مشتق شده ببینیم که طی بیش از ۷۰ سال به وجود اومدن:

درست زیرمجموعه‌ی هوش مصنوعی، ما یادگیری ماشین رو داریم که شامل ساختن مدل‌ها از طریق آموزش دادن یه الگوریتم برای پیش‌بینی یا تصمیم‌گیری بر اساس داده‌هاست. این حوزه، طیف وسیعی از تکنیک‌ها رو در بر می‌گیره که به کامپیوترها این امکان رو می‌ده تا بدون اینکه به طور مشخص برای وظایف خاصی برنامه‌ریزی شده باشن، از داده‌ها یاد بگیرن و بر اساس اون‌ها نتیجه‌گیری کنن.

انواع مختلفی از تکنیک‌ها یا الگوریتم‌های یادگیری ماشین وجود داره، از جمله رگرسیون خطی، رگرسیون لجستیک، درخت تصمیم، جنگل تصادفی، ماشین‌های بردار پشتیبان (SVMs)، k-نزدیک‌ترین همسایه (KNN)، خوشه‌بندی و خیلی‌های دیگه. هر کدوم از این رویکردها برای انواع مختلفی از مسائل و داده‌ها مناسبن.

اما یکی از محبوب‌ترین انواع الگوریتم‌های یادگیری ماشین، شبکه عصبی (یا شبکه عصبی مصنوعی) نام داره. شبکه‌های عصبی از ساختار و عملکرد مغز انسان الگوبرداری شدن. یه شبکه عصبی از لایه‌های به هم پیوسته‌ای از گره‌ها (مشابه نورون‌ها) تشکیل شده که با هم کار می‌کنن تا داده‌های پیچیده رو پردازش و تحلیل کنن. شبکه‌های عصبی برای وظایفی که شامل شناسایی الگوها و روابط پیچیده تو حجم زیادی از داده‌هاست، خیلی مناسبن.

ساده‌ترین شکل یادگیری ماشین، یادگیری نظارت‌شده نام داره که شامل استفاده از مجموعه داده‌های برچسب‌گذاری شده برای آموزش الگوریتم‌هاست تا داده‌ها رو طبقه‌بندی کنن یا نتایج رو به درستی پیش‌بینی کنن. تو یادگیری نظارت‌شده، آدما هر مثال آموزشی رو با یه برچسب خروجی جفت می‌کنن. هدف اینه که مدل، نگاشت بین ورودی‌ها و خروجی‌ها رو تو داده‌های آموزشی یاد بگیره تا بتونه برچسب‌های داده‌های جدید و دیده‌نشده رو پیش‌بینی کنه.

یادگیری عمیق

یادگیری عمیق، زیرمجموعه‌ای از یادگیری ماشینه که از شبکه‌های عصبی چندلایه، به نام شبکه‌های عصبی عمیق، استفاده می‌کنه که قدرت تصمیم‌گیری پیچیده‌ی مغز انسان رو با دقت بیشتری شبیه‌سازی می‌کنن.

برخلاف شبکه‌های عصبی مورد استفاده تو مدل‌های کلاسیک یادگیری ماشین که معمولاً فقط یک یا دو لایه پنهان دارن، شبکه‌های عصبی عمیق شامل یک لایه ورودی، حداقل سه (و معمولاً صدها) لایه پنهان و یک لایه خروجی هستن.

این لایه‌های متعدد، امکان یادگیری نظارت‌نشده رو فراهم می‌کنن: اون‌ها می‌تونن استخراج ویژگی‌ها از مجموعه داده‌های بزرگ، بدون برچسب و بدون ساختار رو خودکار کنن و پیش‌بینی‌های خودشون رو در مورد اینکه داده‌ها چی هستن، انجام بدن.

چون یادگیری عمیق به دخالت انسان نیازی نداره، یادگیری ماشین رو در مقیاس فوق‌العاده بزرگی ممکن می‌کنه. این روش برای پردازش زبان طبیعی (NLP)، بینایی کامپیوتر و وظایف دیگه‌ای که شامل شناسایی سریع و دقیق الگوها و روابط پیچیده تو حجم زیادی از داده‌هاست، خیلی مناسبه. امروزه بیشتر کاربردهای هوش مصنوعی تو زندگی ما، به نوعی از یادگیری عمیق قدرت می‌گیرن.

یادگیری عمیق همچنین این موارد رو هم ممکن می‌کنه:

  • یادگیری نیمه‌نظارتی، که یادگیری نظارت‌شده و نظارت‌نشده رو با استفاده از داده‌های برچسب‌دار و بدون برچسب برای آموزش مدل‌های هوش مصنوعی برای کارهای طبقه‌بندی و رگرسیون ترکیب می‌کنه.
  • یادگیری خودنظارتی، که به جای تکیه بر مجموعه داده‌های برچسب‌دار برای سیگنال‌های نظارتی، برچسب‌های ضمنی رو از داده‌های بدون ساختار تولید می‌کنه.
  • یادگیری تقویتی، که به جای استخراج اطلاعات از الگوهای پنهان، از طریق آزمون و خطا و توابع پاداش یاد می‌گیره.
  • یادگیری انتقالی، که در اون دانشی که از طریق یک وظیفه یا مجموعه داده به دست اومده، برای بهبود عملکرد مدل در یک وظیفه مرتبط دیگه یا مجموعه داده متفاوت استفاده می‌شه.

هوش مصنوعی مولد

هوش مصنوعی مولد، که گاهی بهش «gen AI» هم می‌گن، به مدل‌های یادگیری عمیقی اشاره داره که می‌تونن در پاسخ به یه درخواست یا پرامپت (prompt) کاربر، محتوای پیچیده و اورجینال مثل متن‌های طولانی، تصاویر باکیفیت، ویدیوها یا صداهای واقعی و چیزای دیگه تولید کنن.

در سطح کلان، مدل‌های مولد یه نمایش ساده‌شده از داده‌های آموزشی خودشون رو کدگذاری می‌کنن و بعد از اون نمایش برای خلق یه اثر جدید استفاده می‌کنن که شبیه به داده‌های اصلیه، اما دقیقاً همون نیست.

مدل‌های مولد سال‌هاست که تو آمار برای تحلیل داده‌های عددی استفاده می‌شن. اما طی دهه گذشته، تکامل پیدا کردن تا انواع داده‌های پیچیده‌تری رو تحلیل و تولید کنن. این تکامل با ظهور سه نوع مدل یادگیری عمیق پیشرفته همزمان شد:

  • خودکدگذار متغیر (Variational autoencoders) یا VAEs، که در سال ۲۰۱۳ معرفی شدن و مدل‌هایی رو ممکن کردن که می‌تونستن در پاسخ به یه پرامپت یا دستور، چندین نسخه متفاوت از محتوا رو تولید کنن.
  • مدل‌های انتشاری (Diffusion models)، که اولین بار در سال ۲۰۱۴ دیده شدن. این مدل‌ها به تصاویر «نویز» اضافه می‌کنن تا جایی که غیرقابل تشخیص بشن و بعد نویز رو حذف می‌کنن تا در پاسخ به پرامپت‌ها، تصاویر اورجینال تولید کنن.
  • ترنسفورمرها (Transformers) (یا مدل‌های ترنسفورمر)، که روی داده‌های متوالی آموزش می‌بینن تا دنباله‌های طولانی از محتوا (مثل کلمات در جملات، اشکال در یک تصویر، فریم‌های یک ویدیو یا دستورات در کد نرم‌افزار) تولید کنن. ترنسفورمرها هسته اصلی اکثر ابزارهای هوش مصنوعی مولد معروف امروزی، از جمله ChatGPT و GPT-4، Copilot، BERT، Bard و Midjourney هستن.

هوش مصنوعی مولد چطور کار می‌کنه؟

به طور کلی، هوش مصنوعی مولد در سه مرحله عمل می‌کنه:

  1. آموزش، برای ساختن یه مدل پایه (foundation model).
  2. تنظیم (Tuning)، برای تطبیق دادن مدل با یه کاربرد خاص.
  3. تولید، ارزیابی و تنظیم بیشتر، برای بهبود دقت.

آموزش

هوش مصنوعی مولد با یک «مدل پایه» شروع می‌شه؛ یه مدل یادگیری عمیق که به عنوان اساس برای چندین نوع مختلف از کاربردهای هوش مصنوعی مولد عمل می‌کنه.

رایج‌ترین مدل‌های پایه امروز، مدل‌های زبان بزرگ (LLMs) هستن که برای کاربردهای تولید متن ساخته شدن. اما مدل‌های پایه‌ای برای تولید تصویر، ویدیو، صدا یا موسیقی و همچنین مدل‌های پایه چندوجهی (multimodal) که از چندین نوع محتوا پشتیبانی می‌کنن هم وجود داره.

برای ساختن یه مدل پایه، متخصصان یه الگوریتم یادگیری عمیق رو روی حجم عظیمی از داده‌های خام، بدون ساختار و بدون برچسب مرتبط آموزش می‌دن؛ مثلاً ترابایت‌ها یا پتابایت‌ها داده متنی یا تصویری یا ویدیویی از اینترنت. این آموزش، یه شبکه عصبی با میلیاردها پارامتر به وجود میاره؛ یعنی نمایش‌های کدگذاری شده از موجودیت‌ها، الگوها و روابط موجود در داده‌ها که می‌تونه به طور مستقل در پاسخ به پرامپت‌ها محتوا تولید کنه. این همون مدل پایه‌ست.

این فرآیند آموزش، به قدرت محاسباتی بالا، زمان زیاد و هزینه سنگینی نیاز داره. هزاران واحد پردازش گرافیکی (GPU) خوشه‌بندی شده و هفته‌ها پردازش می‌خواد که همه‌ی این‌ها معمولاً میلیون‌ها دلار هزینه داره. پروژه‌های مدل پایه منبع‌باز، مثل Llama-2 متا، به توسعه‌دهنده‌های هوش مصنوعی مولد این امکان رو می‌ده که از این مرحله و هزینه‌هاش صرف‌نظر کنن.

تنظیم

در مرحله بعد، مدل باید برای یک کار خاص تولید محتوا تنظیم بشه. این کار به روش‌های مختلفی انجام می‌شه، از جمله:

  • تنظیم دقیق (Fine-tuning)، که شامل دادن داده‌های برچسب‌دار مخصوص اون کاربرد، سوالات یا پرامپت‌هایی که احتمالاً برنامه دریافت می‌کنه و پاسخ‌های صحیح مربوطه در فرمت دلخواه به مدله.
  • یادگیری تقویتی با بازخورد انسانی (RLHF)، که در اون کاربرای انسانی دقت یا مرتبط بودن خروجی‌های مدل رو ارزیابی می‌کنن تا مدل بتونه خودشو بهبود بده. این کار می‌تونه به سادگی تایپ کردن یا گفتن اصلاحات به یه چت‌بات یا دستیار مجازی باشه.

تولید، ارزیابی و تنظیم بیشتر

توسعه‌دهنده‌ها و کاربرا به طور مرتب خروجی‌های برنامه‌های هوش مصنوعی مولد خودشون رو ارزیابی می‌کنن و مدل رو حتی گاهی هفته‌ای یک بار برای دقت یا مرتبط بودن بیشتر، تنظیم می‌کنن. در مقابل، خود مدل پایه خیلی کمتر به‌روزرسانی می‌شه، شاید هر سال یا هر ۱۸ ماه یک بار.

گزینه دیگه برای بهبود عملکرد یه برنامه هوش مصنوعی مولد، تولید افزوده بازیابی (RAG) است؛ تکنیکی برای گسترش مدل پایه تا از منابع مرتبط خارج از داده‌های آموزشی برای اصلاح پارامترها و رسیدن به دقت یا مرتبط بودن بیشتر استفاده کنه.

عامل‌های هوش مصنوعی (AI agents) و هوش مصنوعی عامل‌محور (Agentic AI)

یک عامل هوش مصنوعی یه برنامه هوش مصنوعی مستقله که می‌تونه بدون دخالت انسان، با طراحی گردش کار خودش و استفاده از ابزارهای موجود (برنامه‌ها یا سرویس‌های دیگه)، وظایفی رو انجام بده و به اهدافی به نمایندگی از یه کاربر یا سیستم دیگه برسه.

هوش مصنوعی عامل‌محور سیستمی از چندین عامل هوش مصنوعیه که تلاش‌هاشون برای انجام یه کار پیچیده‌تر یا رسیدن به یه هدف بزرگتر از چیزی که هر عامل به تنهایی می‌تونه انجام بده، هماهنگ یا سازماندهی می‌شه.

برخلاف چت‌بات‌ها و مدل‌های دیگه هوش مصنوعی که در چارچوب محدودیت‌های از پیش تعریف‌شده عمل می‌کنن و به دخالت انسان نیاز دارن، عامل‌های هوش مصنوعی و هوش مصنوعی عامل‌محور، استقلال، رفتار هدفمند و سازگاری با شرایط متغیر رو از خودشون نشون می‌دن. اصطلاحات «عامل» و «عامل‌محور» به عاملیت این مدل‌ها، یا ظرفیت اون‌ها برای عمل مستقل و هدفمند اشاره داره.

یه راه برای فکر کردن به عامل‌ها اینه که اون‌ها رو گام طبیعی بعدی بعد از هوش مصنوعی مولد بدونیم. مدل‌های هوش مصنوعی مولد روی خلق محتوا بر اساس الگوهای یادگرفته شده تمرکز می‌کنن؛ عامل‌ها از اون محتوا برای تعامل با همدیگه و ابزارهای دیگه برای تصمیم‌گیری، حل مسئله و تکمیل وظایف استفاده می‌کنن. برای مثال، یه برنامه هوش مصنوعی مولد شاید بتونه با توجه به برنامه کاری شما، بهترین زمان برای صعود به قله اورست رو بهتون بگه، اما یه عامل می‌تونه این رو بهتون بگه و بعد با استفاده از یه سرویس مسافرتی آنلاین، بهترین پرواز رو براتون رزرو کنه و یه اتاق تو راحت‌ترین هتل نپال براتون بگیره.

مزایای هوش مصنوعی

هوش مصنوعی مزایای بی‌شماری در صنایع و کاربردهای مختلف ارائه می‌ده. برخی از مزایای رایج عبارتند از:

  • خودکارسازی کارهای تکراری.
  • بینش بیشتر و سریع‌تر از داده‌ها.
  • تصمیم‌گیری بهتر.
  • خطاهای انسانی کمتر.
  • در دسترس بودن ۲۴ ساعته در ۷ روز هفته.
  • کاهش خطرات فیزیکی.

خودکارسازی کارهای تکراری

هوش مصنوعی می‌تونه کارهای روتین، تکراری و اغلب خسته‌کننده رو خودکار کنه، از جمله کارهای دیجیتالی مثل جمع‌آوری، ورود و پیش‌پردازش داده‌ها، و کارهای فیزیکی مثل برداشتن موجودی انبار و فرآیندهای تولیدی. این خودکارسازی، آدما رو آزاد می‌کنه تا روی کارهای با ارزش‌تر و خلاقانه‌تر کار کنن.

تصمیم‌گیری بهتر

هوش مصنوعی، چه برای پشتیبانی از تصمیم‌گیری استفاده بشه و چه برای تصمیم‌گیری کاملاً خودکار، پیش‌بینی‌های سریع‌تر و دقیق‌تر و تصمیمات داده‌محور و قابل اعتمادی رو ممکن می‌کنه. هوش مصنوعی در ترکیب با خودکارسازی، به کسب‌وکارها این امکان رو می‌ده که به محض ظهور فرصت‌ها و بحران‌ها، به صورت آنی و بدون دخالت انسان، اقدام کنن.

خطاهای انسانی کمتر

هوش مصنوعی می‌تونه خطاهای انسانی رو به روش‌های مختلفی کاهش بده، از راهنمایی آدما در مراحل درست یه فرآیند گرفته تا هشدار دادن در مورد خطاهای احتمالی قبل از وقوع اون‌ها و خودکارسازی کامل فرآیندها بدون دخالت انسان. این موضوع به ویژه تو صنایعی مثل مراقبت‌های بهداشتی مهمه که برای مثال، رباتیک جراحی با هدایت هوش مصنوعی، دقت ثابتی رو فراهم می‌کنه.

الگوریتم‌های یادگیری ماشین می‌تونن با قرار گرفتن در معرض داده‌های بیشتر و «یادگیری» از تجربه، به طور مداوم دقت خودشون رو بهبود ببخشن و خطاها رو بیشتر کاهش بدن.

در دسترس بودن و ثبات شبانه‌روزی

هوش مصنوعی همیشه روشنه، به صورت شبانه‌روزی در دسترسه و هر بار عملکرد ثابتی ارائه می‌ده. ابزارهایی مثل چت‌بات‌های هوش مصنوعی یا دستیارهای مجازی می‌تونن بار کاری کارکنان خدمات مشتری یا پشتیبانی رو کم کنن. تو کاربردهای دیگه مثل پردازش مواد یا خطوط تولید، هوش مصنوعی می‌تونه با انجام کارهای تکراری یا خسته‌کننده، به حفظ کیفیت کار و سطح تولید ثابت کمک کنه.

کاهش خطر فیزیکی

هوش مصنوعی با خودکارسازی کارهای خطرناک مثل کنترل حیوانات، کار با مواد منفجره، انجام وظایف در اعماق اقیانوس، ارتفاعات زیاد یا در فضا، می‌تونه نیاز به قرار دادن کارگران انسانی در معرض خطر آسیب یا بدتر از اون رو از بین ببره. اگرچه هنوز کامل نشدن، اما ماشین‌های خودران و وسایل نقلیه دیگه، پتانسیل کاهش خطر آسیب به مسافران رو دارن.

کاربردهای هوش مصنوعی

کاربردهای واقعی هوش مصنوعی خیلی زیادن. اینجا فقط یه نمونه کوچیک از موارد استفاده در صنایع مختلف برای نشون دادن پتانسیلش آورده شده:

تجربه، خدمات و پشتیبانی مشتری

شرکت‌ها می‌تونن از چت‌بات‌ها و دستیارهای مجازی مبتنی بر هوش مصنوعی برای رسیدگی به سوالات مشتریان، تیکت‌های پشتیبانی و موارد دیگه استفاده کنن. این ابزارها از قابلیت‌های پردازش زبان طبیعی (NLP) و هوش مصنوعی مولد برای درک و پاسخ به سوالات مشتریان در مورد وضعیت سفارش، جزئیات محصول و سیاست‌های بازگشت کالا استفاده می‌کنن.

چت‌بات‌ها و دستیارهای مجازی، پشتیبانی همیشه فعال رو ممکن می‌کنن، به سوالات متداول (FAQs) سریع‌تر جواب می‌دن، کارمندای انسانی رو آزاد می‌کنن تا روی کارهای سطح بالاتر تمرکز کنن و به مشتریان خدمات سریع‌تر و باثبات‌تری ارائه می‌دن.

تشخیص کلاهبرداری

الگوریتم‌های یادگیری ماشین و یادگیری عمیق می‌تونن الگوهای تراکنش رو تحلیل کنن و ناهنجاری‌هایی مثل هزینه‌های غیرعادی یا مکان‌های ورود به سیستم غیرمعمول رو که نشون‌دهنده تراکنش‌های کلاهبردارانه هستن، شناسایی کنن. این کار به سازمان‌ها اجازه می‌ده تا سریع‌تر به کلاهبرداری‌های احتمالی پاسخ بدن و تأثیر اون رو محدود کنن و برای خودشون و مشتریان، آرامش خاطر بیشتری فراهم کنن.

بازاریابی شخصی‌سازی شده

خرده‌فروشی‌ها، بانک‌ها و شرکت‌های دیگه‌ای که با مشتری سر و کار دارن، می‌تونن از هوش مصنوعی برای ایجاد تجربیات مشتری و کمپین‌های بازاریابی شخصی‌سازی شده استفاده کنن که مشتریان رو خوشحال می‌کنه، فروش رو بهبود می‌بخشه و از ریزش مشتری جلوگیری می‌کنه. بر اساس داده‌های تاریخچه خرید و رفتارهای مشتری، الگوریتم‌های یادگیری عمیق می‌تونن محصولات و خدماتی رو که احتمالاً مشتریان می‌خوان، توصیه کنن و حتی متن تبلیغاتی و پیشنهادات ویژه شخصی‌سازی شده برای هر مشتری رو به صورت آنی تولید کنن.

منابع انسانی و استخدام

پلتفرم‌های استخدام مبتنی بر هوش مصنوعی می‌تونن با غربالگری رزومه‌ها، تطبیق نامزدها با شرح وظایف شغلی و حتی انجام مصاحبه‌های اولیه با استفاده از تحلیل ویدیو، فرآیند استخدام رو ساده‌تر کنن. این ابزارها و ابزارهای دیگه می‌تونن حجم عظیم کاغذبازی‌های اداری مرتبط با بررسی تعداد زیادی از نامزدها رو به شدت کاهش بدن. همچنین می‌تونن زمان پاسخ‌دهی و زمان استخدام رو کم کنن و تجربه بهتری برای نامزدها، چه شغل رو بگیرن و چه نگیرن، ایجاد کنن.

توسعه و نوسازی اپلیکیشن

ابزارهای تولید کد هوش مصنوعی مولد و ابزارهای خودکارسازی می‌تونن کارهای کدنویسی تکراری مرتبط با توسعه اپلیکیشن رو ساده کنن و مهاجرت و نوسازی (تغییر فرمت و پلتفرم) اپلیکیشن‌های قدیمی رو در مقیاس بزرگ تسریع کنن. این ابزارها می‌تونن سرعت کارها رو بالا ببرن، به اطمینان از یکپارچگی کد کمک کنن و خطاها رو کاهش بدن.

نگهداری و تعمیرات پیش‌بینانه

مدل‌های یادگیری ماشین می‌تونن داده‌های سنسورها، دستگاه‌های اینترنت اشیاء (IoT) و فناوری عملیاتی (OT) رو تحلیل کنن تا پیش‌بینی کنن چه زمانی به تعمیر و نگهداری نیاز خواهد بود و خرابی تجهیزات رو قبل از وقوع پیش‌بینی کنن. نگهداری پیشگیرانه مبتنی بر هوش مصنوعی به جلوگیری از توقف کار کمک می‌کنه و به شما این امکان رو می‌ده که قبل از اینکه مشکلات زنجیره تأمین بر سودآوری تأثیر بذاره، از اون‌ها جلوتر باشید.

چالش‌ها و ریسک‌های هوش مصنوعی

سازمان‌ها دارن برای بهره‌برداری از آخرین فناوری‌های هوش مصنوعی و استفاده از مزایای زیاد اون، با هم رقابت می‌کنن. این پذیرش سریع ضروریه، اما پذیرش و نگهداری گردش کار هوش مصنوعی با چالش‌ها و ریسک‌هایی همراهه.

ریسک‌های داده

سیستم‌های هوش مصنوعی به مجموعه داده‌هایی متکی هستن که ممکنه در برابر مسمومیت داده، دستکاری داده، سوگیری داده یا حملات سایبری که می‌تونن منجر به نشت داده بشن، آسیب‌پذیر باشن. سازمان‌ها می‌تونن با حفاظت از یکپارچگی داده‌ها و پیاده‌سازی امنیت و در دسترس بودن در کل چرخه عمر هوش مصنوعی، از توسعه و آموزش گرفته تا استقرار و پس از استقرار، این ریسک‌ها رو کاهش بدن.

ریسک‌های مدل

عوامل تهدید می‌تونن مدل‌های هوش مصنوعی رو برای سرقت، مهندسی معکوس یا دستکاری غیرمجاز هدف قرار بدن. مهاجمان ممکنه با دستکاری معماری، وزن‌ها یا پارامترهای مدل، یکپارچگی اون رو به خطر بندازن؛ یعنی اجزای اصلی که رفتار، دقت و عملکرد مدل رو تعیین می‌کنن.

ریسک‌های عملیاتی

مثل همه فناوری‌ها، مدل‌ها هم در معرض ریسک‌های عملیاتی مثل انحراف مدل (model drift)، سوگیری و نقص در ساختار حاکمیت هستن. اگه به این ریسک‌ها رسیدگی نشه، می‌تونن منجر به شکست سیستم و آسیب‌پذیری‌های امنیت سایبری بشن که عوامل تهدید می‌تونن از اون‌ها استفاده کنن.

ریسک‌های اخلاقی و حقوقی

اگه سازمان‌ها هنگام توسعه و استقرار سیستم‌های هوش مصنوعی، ایمنی و اخلاق رو در اولویت قرار ندن، با خطر نقض حریم خصوصی و تولید نتایج جانبدارانه روبرو می‌شن. برای مثال، داده‌های آموزشی جانبدارانه که برای تصمیم‌گیری‌های استخدامی استفاده می‌شن، ممکنه کلیشه‌های جنسیتی یا نژادی رو تقویت کنن و مدل‌های هوش مصنوعی‌ای بسازن که گروه‌های جمعیتی خاصی رو به بقیه ترجیح می‌دن.

اخلاق و حاکمیت هوش مصنوعی

اخلاق هوش مصنوعی یه حوزه چندرشته‌ایه که چگونگی بهینه‌سازی تأثیرات مفید هوش مصنوعی رو ضمن کاهش ریسک‌ها و نتایج نامطلوب، مطالعه می‌کنه. اصول اخلاق هوش مصنوعی از طریق یه سیستم حاکمیت هوش مصنوعی که شامل چارچوب‌های محافظتی برای اطمینان از ایمن و اخلاقی موندن ابزارها و سیستم‌های هوش مصنوعیه، اعمال می‌شه.

حاکمیت هوش مصنوعی شامل مکانیزم‌های نظارتیه که به ریسک‌ها رسیدگی می‌کنه. یه رویکرد اخلاقی به حاکمیت هوش مصنوعی نیازمند مشارکت طیف وسیعی از ذینفعان، از جمله توسعه‌دهندگان، کاربران، سیاست‌گذاران و متخصصان اخلاقه تا به اطمینان از اینکه سیستم‌های مرتبط با هوش مصنوعی مطابق با ارزش‌های جامعه توسعه و استفاده می‌شن، کمک کنه.

در ادامه ارزش‌های رایج مرتبط با اخلاق هوش مصنوعی و هوش مصنوعی مسئولانه رو می‌بینید:

توضیح‌پذیری و تفسیرپذیری

هرچقدر هوش مصنوعی پیشرفته‌تر می‌شه، درک و ردیابی اینکه الگوریتم چطور به یک نتیجه رسیده برای ما آدما سخت‌تر می‌شه. هوش مصنوعی توضیح‌پذیر (Explainable AI) مجموعه‌ای از فرآیندها و روش‌هاست که به کاربرای انسانی این امکان رو می‌ده تا نتایج و خروجی‌های تولید شده توسط الگوریتم‌ها رو تفسیر کنن، بفهمن و بهش اعتماد کنن.

انصاف و فراگیری

اگرچه یادگیری ماشین، ذاتاً نوعی تبعیض آماریه، اما این تبعیض زمانی مشکل‌ساز می‌شه که گروه‌های ممتاز رو به طور سیستماتیک در موقعیت برتر و برخی گروه‌های غیرممتاز رو به طور سیستماتیک در موقعیت نامساعد قرار بده و به طور بالقوه باعث آسیب‌های مختلف بشه. برای ترویج انصاف، متخصصان می‌تونن سعی کنن سوگیری الگوریتمی رو در سراسر جمع‌آوری داده‌ها و طراحی مدل به حداقل برسونن و تیم‌های متنوع‌تر و فراگیرتری بسازن.

استحکام و امنیت

هوش مصنوعی مستحکم، شرایط استثنایی مثل ناهنجاری در ورودی یا حملات مخرب رو بدون ایجاد آسیب ناخواسته، به طور مؤثر مدیریت می‌کنه. همچنین طوری ساخته شده که با محافظت در برابر آسیب‌پذیری‌های آشکار، در مقابل تداخل‌های عمدی و غیرعمدی مقاومت کنه.

پاسخگویی و شفافیت

سازمان‌ها باید مسئولیت‌ها و ساختارهای حاکمیتی روشنی رو برای توسعه، استقرار و نتایج سیستم‌های هوش مصنوعی پیاده‌سازی کنن. علاوه بر این، کاربرا باید بتونن ببینن یه سرویس هوش مصنوعی چطور کار می‌کنه، عملکردش رو ارزیابی کنن و نقاط قوت و ضعفش رو بفهمن. افزایش شفافیت، اطلاعاتی رو برای مصرف‌کنندگان هوش مصنوعی فراهم می‌کنه تا بهتر درک کنن که مدل یا سرویس هوش مصنوعی چطور ساخته شده.

حریم خصوصی و انطباق با مقررات

بسیاری از چارچوب‌های نظارتی، از جمله GDPR، سازمان‌ها رو ملزم می‌کنن که هنگام پردازش اطلاعات شخصی، از اصول حریم خصوصی خاصی پیروی کنن. مهمه که بتونیم از مدل‌های هوش مصنوعی که ممکنه حاوی اطلاعات شخصی باشن محافظت کنیم، کنترل کنیم که چه داده‌هایی در وهله اول وارد مدل می‌شن و سیستم‌های سازگاری بسازیم که بتونن با تغییرات در مقررات و نگرش‌ها در مورد اخلاق هوش مصنوعی، خودشون رو وفق بدن.

هوش مصنوعی ضعیف در مقابل هوش مصنوعی قوی

برای اینکه استفاده از هوش مصنوعی رو در سطوح مختلف پیچیدگی و پیشرفت درک کنیم، محققان انواع مختلفی از هوش مصنوعی رو تعریف کردن که به سطح پیشرفت اون اشاره داره:

هوش مصنوعی ضعیف: که بهش «هوش مصنوعی محدود» (narrow AI) هم می‌گن، به سیستم‌های هوش مصنوعی‌ای گفته می‌شه که برای انجام یه کار خاص یا مجموعه‌ای از کارها طراحی شدن. مثال‌هاش می‌تونن برنامه‌های دستیار صوتی «هوشمند» مثل الکسای آمازون و سیری اپل، یه چت‌بات شبکه‌های اجتماعی یا خودروهای خودران وعده داده شده توسط تسلا باشن.

هوش مصنوعی قوی: که بهش «هوش مصنوعی عمومی» (AGI) یا «هوش مصنوعی کلی» هم می‌گن، توانایی درک، یادگیری و به کارگیری دانش در طیف وسیعی از وظایف رو در سطحی برابر با یا فراتر از هوش انسان داره. این سطح از هوش مصنوعی در حال حاضر تئوریه و هیچ سیستم هوش مصنوعی شناخته شده‌ای به این سطح از پیشرفت نزدیک نشده. محققان معتقدن که اگه هوش مصنوعی عمومی اصلاً ممکن باشه، به افزایش‌های عمده‌ای در قدرت محاسباتی نیاز داره. با وجود پیشرفت‌های اخیر در توسعه هوش مصنوعی، سیستم‌های هوش مصنوعی خودآگاه داستان‌های علمی تخیلی، همچنان محکم تو همون قلمرو باقی موندن.

تاریخچه هوش مصنوعی

ایده «ماشینی که فکر می‌کند» به یونان باستان برمی‌گرده. اما از زمان ظهور محاسبات الکترونیکی (و در ارتباط با برخی از موضوعات مورد بحث در این مقاله)، رویدادها و نقاط عطف مهم در تکامل هوش مصنوعی شامل موارد زیره:

۱۹۵۰
آلن تورینگ مقاله‌ی «ماشین‌های محاسباتی و هوش» رو منتشر می‌کنه. در این مقاله، تورینگ که به خاطر شکستن کد انیگمای آلمان در طول جنگ جهانی دوم مشهوره و اغلب به عنوان «پدر علم کامپیوتر» ازش یاد می‌شه، این سوال رو مطرح می‌کنه: «آیا ماشین‌ها می‌توانند فکر کنند؟»

از اونجا، اون یه آزمون رو ارائه می‌ده که حالا به نام «آزمون تورینگ» معروفه. تو این آزمون، یه بازجوی انسانی سعی می‌کنه بین پاسخ متنی یه کامپیوتر و یه انسان تمایز قائل بشه. در حالی که این آزمون از زمان انتشارش خیلی مورد نقد قرار گرفته، اما همچنان بخش مهمی از تاریخ هوش مصنوعیه و یه مفهوم ادامه‌دار در فلسفه محسوب می‌شه، چون از ایده‌های حوزه زبان‌شناسی استفاده می‌کنه.

۱۹۵۶
جان مک‌کارتی اصطلاح «هوش مصنوعی» رو در اولین کنفرانس هوش مصنوعی در کالج دارتموث ابداع می‌کنه. (مک‌کارتی بعداً زبان Lisp رو اختراع کرد.) اواخر همون سال، آلن نیوول، جی.سی. شاو و هربرت سایمون، Logic Theorist رو ایجاد کردن که اولین برنامه کامپیوتری هوش مصنوعی در حال اجرا بود.

۱۹۶۷
فرانک روزنبلات، Mark 1 Perceptron رو می‌سازه، اولین کامپیوتری که بر اساس یه شبکه عصبی کار می‌کرد و از طریق آزمون و خطا «یاد می‌گرفت». فقط یک سال بعد، ماروین مینسکی و سیمور پاپرت کتابی به نام Perceptrons رو منتشر می‌کنن که هم به یه اثر برجسته در مورد شبکه‌های عصبی تبدیل می‌شه و هم، حداقل برای مدتی، به استدلالی علیه طرح‌های تحقیقاتی آینده شبکه‌های عصبی.

۱۹۸۰
شبکه‌های عصبی، که از الگوریتم پس‌انتشار (backpropagation) برای آموزش خودشون استفاده می‌کنن، به طور گسترده در کاربردهای هوش مصنوعی مورد استفاده قرار گرفتن.

۱۹۹۵
استوارت راسل و پیتر نورویگ کتاب «هوش مصنوعی: یک رویکرد مدرن» رو منتشر می‌کنن که به یکی از کتاب‌های درسی پیشرو در مطالعه هوش مصنوعی تبدیل می‌شه. در اون، اون‌ها به چهار هدف یا تعریف بالقوه از هوش مصنوعی می‌پردازن که سیستم‌های کامپیوتری رو بر اساس عقلانیت و تفکر در مقابل عمل کردن، متمایز می‌کنه.

۱۹۹۷
کامپیوتر Deep Blue شرکت IBM، گری کاسپاروف، قهرمان وقت شطرنج جهان رو در یه مسابقه (و مسابقه مجدد) شطرنج شکست می‌ده.

۲۰۰۴
جان مک‌کارتی در مقاله‌ای به نام «هوش مصنوعی چیست؟» می‌نویسه و یه تعریف از هوش مصنوعی رو پیشنهاد می‌ده که اغلب بهش استناد می‌شه. در این زمان، عصر کلان‌داده‌ها (big data) و محاسبات ابری در جریانه و به سازمان‌ها این امکان رو می‌ده که حجم‌های داده‌ای روزافزون رو مدیریت کنن؛ داده‌هایی که یه روزی برای آموزش مدل‌های هوش مصنوعی استفاده خواهند شد.

۲۰۱۱
کامپیوتر Watson شرکت IBM قهرمانان مسابقه Jeopardy! یعنی کن جنینگز و برد راتر رو شکست می‌ده. همچنین، در همین حوالی، علم داده به عنوان یه رشته محبوب شروع به ظهور می‌کنه.

۲۰۱۵
ابرکامپیوتر Minwa شرکت Baidu از یه شبکه عصبی عمیق ویژه به نام شبکه عصبی کانولوشنی برای شناسایی و طبقه‌بندی تصاویر با نرخ دقت بالاتر از میانگین انسان استفاده می‌کنه.

۲۰۱۶
برنامه AlphaGo شرکت DeepMind، که توسط یه شبکه عصبی عمیق قدرت گرفته، لی سدول، قهرمان جهان بازی Go رو در یه مسابقه پنج‌گانه شکست می‌ده. این پیروزی با توجه به تعداد بسیار زیاد حرکات ممکن با پیشرفت بازی (بیش از ۱۴.۵ تریلیون بعد از فقط چهار حرکت!)، اهمیت زیادی داره. بعدها، گوگل شرکت DeepMind رو به مبلغ گزارش شده ۴۰۰ میلیون دلار خریداری کرد.

۲۰۲۲
ظهور مدل‌های زبان بزرگ (LLMs)، مثل ChatGPT شرکت OpenAI، تغییر عظیمی در عملکرد هوش مصنوعی و پتانسیل اون برای ایجاد ارزش در کسب‌وکارها به وجود میاره. با این شیوه‌های جدید هوش مصنوعی مولد، مدل‌های یادگیری عمیق می‌تونن روی حجم زیادی از داده‌ها از قبل آموزش ببینن.

۲۰۲۴
آخرین ترندهای هوش مصنوعی به یه رنسانس مداوم هوش مصنوعی اشاره دارن. مدل‌های چندوجهی که می‌تونن انواع مختلفی از داده‌ها رو به عنوان ورودی بگیرن، تجربیات غنی‌تر و قوی‌تری رو فراهم می‌کنن. این مدل‌ها قابلیت‌های بینایی کامپیوتر برای تشخیص تصویر و قابلیت‌های NLP برای تشخیص گفتار رو با هم ترکیب می‌کنن. مدل‌های کوچکتر هم در عصری که مدل‌های عظیم با تعداد پارامترهای زیاد با بازدهی نزولی مواجه شدن، در حال پیشرفت هستن.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *