هوش مصنوعی چیست؟
هوش مصنوعی (AI) فناوریایه که به کامپیوترها و ماشینها این قابلیت رو میده تا یادگیری، درک، حل مسئله، تصمیمگیری، خلاقیت و استقلال انسان رو شبیهسازی کنن.
هوش مصنوعی چیه؟
هوش مصنوعی (AI) فناوریایه که به کامپیوترها و ماشینها این قابلیت رو میده تا یادگیری، درک، حل مسئله، تصمیمگیری، خلاقیت و استقلال انسان رو شبیهسازی کنن.
برنامهها و دستگاههایی که به هوش مصنوعی مجهز شدن، میتونن اشیاء رو ببینن و شناسایی کنن. میتونن زبان انسان رو بفهمن و بهش پاسخ بدن. میتونن از اطلاعات و تجربیات جدید یاد بگیرن. میتونن به کاربرا و متخصصان، پیشنهادهای دقیقی بدن. میتونن مستقل عمل کنن و جایگزین هوش یا دخالت انسان بشن (یه مثال کلاسیکش ماشین خودرانه).
اما تو سال ۲۰۲۴، بیشتر محققان، متخصصان و تیترهای خبری مرتبط با هوش مصنوعی، روی پیشرفتهای چشمگیر هوش مصنوعی مولد (generative AI) تمرکز کردن؛ فناوریای که میتونه متن، تصویر، ویدیو و محتواهای اورجینال دیگهای رو خلق کنه. برای اینکه هوش مصنوعی مولد رو کامل درک کنیم، مهمه که اول با فناوریهایی که ابزارهای هوش مصنوعی مولد بر پایهی اونها ساخته شدن، آشنا بشیم: یادگیری ماشین (ML) و یادگیری عمیق (deep learning).
یادگیری ماشین
یه راه ساده برای فکر کردن به هوش مصنوعی اینه که اون رو به عنوان یه سری مفاهیم تودرتو یا مشتق شده ببینیم که طی بیش از ۷۰ سال به وجود اومدن:
درست زیرمجموعهی هوش مصنوعی، ما یادگیری ماشین رو داریم که شامل ساختن مدلها از طریق آموزش دادن یه الگوریتم برای پیشبینی یا تصمیمگیری بر اساس دادههاست. این حوزه، طیف وسیعی از تکنیکها رو در بر میگیره که به کامپیوترها این امکان رو میده تا بدون اینکه به طور مشخص برای وظایف خاصی برنامهریزی شده باشن، از دادهها یاد بگیرن و بر اساس اونها نتیجهگیری کنن.
انواع مختلفی از تکنیکها یا الگوریتمهای یادگیری ماشین وجود داره، از جمله رگرسیون خطی، رگرسیون لجستیک، درخت تصمیم، جنگل تصادفی، ماشینهای بردار پشتیبان (SVMs)، k-نزدیکترین همسایه (KNN)، خوشهبندی و خیلیهای دیگه. هر کدوم از این رویکردها برای انواع مختلفی از مسائل و دادهها مناسبن.
اما یکی از محبوبترین انواع الگوریتمهای یادگیری ماشین، شبکه عصبی (یا شبکه عصبی مصنوعی) نام داره. شبکههای عصبی از ساختار و عملکرد مغز انسان الگوبرداری شدن. یه شبکه عصبی از لایههای به هم پیوستهای از گرهها (مشابه نورونها) تشکیل شده که با هم کار میکنن تا دادههای پیچیده رو پردازش و تحلیل کنن. شبکههای عصبی برای وظایفی که شامل شناسایی الگوها و روابط پیچیده تو حجم زیادی از دادههاست، خیلی مناسبن.
سادهترین شکل یادگیری ماشین، یادگیری نظارتشده نام داره که شامل استفاده از مجموعه دادههای برچسبگذاری شده برای آموزش الگوریتمهاست تا دادهها رو طبقهبندی کنن یا نتایج رو به درستی پیشبینی کنن. تو یادگیری نظارتشده، آدما هر مثال آموزشی رو با یه برچسب خروجی جفت میکنن. هدف اینه که مدل، نگاشت بین ورودیها و خروجیها رو تو دادههای آموزشی یاد بگیره تا بتونه برچسبهای دادههای جدید و دیدهنشده رو پیشبینی کنه.
یادگیری عمیق
یادگیری عمیق، زیرمجموعهای از یادگیری ماشینه که از شبکههای عصبی چندلایه، به نام شبکههای عصبی عمیق، استفاده میکنه که قدرت تصمیمگیری پیچیدهی مغز انسان رو با دقت بیشتری شبیهسازی میکنن.
برخلاف شبکههای عصبی مورد استفاده تو مدلهای کلاسیک یادگیری ماشین که معمولاً فقط یک یا دو لایه پنهان دارن، شبکههای عصبی عمیق شامل یک لایه ورودی، حداقل سه (و معمولاً صدها) لایه پنهان و یک لایه خروجی هستن.
این لایههای متعدد، امکان یادگیری نظارتنشده رو فراهم میکنن: اونها میتونن استخراج ویژگیها از مجموعه دادههای بزرگ، بدون برچسب و بدون ساختار رو خودکار کنن و پیشبینیهای خودشون رو در مورد اینکه دادهها چی هستن، انجام بدن.
چون یادگیری عمیق به دخالت انسان نیازی نداره، یادگیری ماشین رو در مقیاس فوقالعاده بزرگی ممکن میکنه. این روش برای پردازش زبان طبیعی (NLP)، بینایی کامپیوتر و وظایف دیگهای که شامل شناسایی سریع و دقیق الگوها و روابط پیچیده تو حجم زیادی از دادههاست، خیلی مناسبه. امروزه بیشتر کاربردهای هوش مصنوعی تو زندگی ما، به نوعی از یادگیری عمیق قدرت میگیرن.
یادگیری عمیق همچنین این موارد رو هم ممکن میکنه:
- یادگیری نیمهنظارتی، که یادگیری نظارتشده و نظارتنشده رو با استفاده از دادههای برچسبدار و بدون برچسب برای آموزش مدلهای هوش مصنوعی برای کارهای طبقهبندی و رگرسیون ترکیب میکنه.
- یادگیری خودنظارتی، که به جای تکیه بر مجموعه دادههای برچسبدار برای سیگنالهای نظارتی، برچسبهای ضمنی رو از دادههای بدون ساختار تولید میکنه.
- یادگیری تقویتی، که به جای استخراج اطلاعات از الگوهای پنهان، از طریق آزمون و خطا و توابع پاداش یاد میگیره.
- یادگیری انتقالی، که در اون دانشی که از طریق یک وظیفه یا مجموعه داده به دست اومده، برای بهبود عملکرد مدل در یک وظیفه مرتبط دیگه یا مجموعه داده متفاوت استفاده میشه.
هوش مصنوعی مولد
هوش مصنوعی مولد، که گاهی بهش «gen AI» هم میگن، به مدلهای یادگیری عمیقی اشاره داره که میتونن در پاسخ به یه درخواست یا پرامپت (prompt) کاربر، محتوای پیچیده و اورجینال مثل متنهای طولانی، تصاویر باکیفیت، ویدیوها یا صداهای واقعی و چیزای دیگه تولید کنن.
در سطح کلان، مدلهای مولد یه نمایش سادهشده از دادههای آموزشی خودشون رو کدگذاری میکنن و بعد از اون نمایش برای خلق یه اثر جدید استفاده میکنن که شبیه به دادههای اصلیه، اما دقیقاً همون نیست.
مدلهای مولد سالهاست که تو آمار برای تحلیل دادههای عددی استفاده میشن. اما طی دهه گذشته، تکامل پیدا کردن تا انواع دادههای پیچیدهتری رو تحلیل و تولید کنن. این تکامل با ظهور سه نوع مدل یادگیری عمیق پیشرفته همزمان شد:
- خودکدگذار متغیر (Variational autoencoders) یا VAEs، که در سال ۲۰۱۳ معرفی شدن و مدلهایی رو ممکن کردن که میتونستن در پاسخ به یه پرامپت یا دستور، چندین نسخه متفاوت از محتوا رو تولید کنن.
- مدلهای انتشاری (Diffusion models)، که اولین بار در سال ۲۰۱۴ دیده شدن. این مدلها به تصاویر «نویز» اضافه میکنن تا جایی که غیرقابل تشخیص بشن و بعد نویز رو حذف میکنن تا در پاسخ به پرامپتها، تصاویر اورجینال تولید کنن.
- ترنسفورمرها (Transformers) (یا مدلهای ترنسفورمر)، که روی دادههای متوالی آموزش میبینن تا دنبالههای طولانی از محتوا (مثل کلمات در جملات، اشکال در یک تصویر، فریمهای یک ویدیو یا دستورات در کد نرمافزار) تولید کنن. ترنسفورمرها هسته اصلی اکثر ابزارهای هوش مصنوعی مولد معروف امروزی، از جمله ChatGPT و GPT-4، Copilot، BERT، Bard و Midjourney هستن.
هوش مصنوعی مولد چطور کار میکنه؟
به طور کلی، هوش مصنوعی مولد در سه مرحله عمل میکنه:
- آموزش، برای ساختن یه مدل پایه (foundation model).
- تنظیم (Tuning)، برای تطبیق دادن مدل با یه کاربرد خاص.
- تولید، ارزیابی و تنظیم بیشتر، برای بهبود دقت.
آموزش
هوش مصنوعی مولد با یک «مدل پایه» شروع میشه؛ یه مدل یادگیری عمیق که به عنوان اساس برای چندین نوع مختلف از کاربردهای هوش مصنوعی مولد عمل میکنه.
رایجترین مدلهای پایه امروز، مدلهای زبان بزرگ (LLMs) هستن که برای کاربردهای تولید متن ساخته شدن. اما مدلهای پایهای برای تولید تصویر، ویدیو، صدا یا موسیقی و همچنین مدلهای پایه چندوجهی (multimodal) که از چندین نوع محتوا پشتیبانی میکنن هم وجود داره.
برای ساختن یه مدل پایه، متخصصان یه الگوریتم یادگیری عمیق رو روی حجم عظیمی از دادههای خام، بدون ساختار و بدون برچسب مرتبط آموزش میدن؛ مثلاً ترابایتها یا پتابایتها داده متنی یا تصویری یا ویدیویی از اینترنت. این آموزش، یه شبکه عصبی با میلیاردها پارامتر به وجود میاره؛ یعنی نمایشهای کدگذاری شده از موجودیتها، الگوها و روابط موجود در دادهها که میتونه به طور مستقل در پاسخ به پرامپتها محتوا تولید کنه. این همون مدل پایهست.
این فرآیند آموزش، به قدرت محاسباتی بالا، زمان زیاد و هزینه سنگینی نیاز داره. هزاران واحد پردازش گرافیکی (GPU) خوشهبندی شده و هفتهها پردازش میخواد که همهی اینها معمولاً میلیونها دلار هزینه داره. پروژههای مدل پایه منبعباز، مثل Llama-2 متا، به توسعهدهندههای هوش مصنوعی مولد این امکان رو میده که از این مرحله و هزینههاش صرفنظر کنن.
تنظیم
در مرحله بعد، مدل باید برای یک کار خاص تولید محتوا تنظیم بشه. این کار به روشهای مختلفی انجام میشه، از جمله:
- تنظیم دقیق (Fine-tuning)، که شامل دادن دادههای برچسبدار مخصوص اون کاربرد، سوالات یا پرامپتهایی که احتمالاً برنامه دریافت میکنه و پاسخهای صحیح مربوطه در فرمت دلخواه به مدله.
- یادگیری تقویتی با بازخورد انسانی (RLHF)، که در اون کاربرای انسانی دقت یا مرتبط بودن خروجیهای مدل رو ارزیابی میکنن تا مدل بتونه خودشو بهبود بده. این کار میتونه به سادگی تایپ کردن یا گفتن اصلاحات به یه چتبات یا دستیار مجازی باشه.
تولید، ارزیابی و تنظیم بیشتر
توسعهدهندهها و کاربرا به طور مرتب خروجیهای برنامههای هوش مصنوعی مولد خودشون رو ارزیابی میکنن و مدل رو حتی گاهی هفتهای یک بار برای دقت یا مرتبط بودن بیشتر، تنظیم میکنن. در مقابل، خود مدل پایه خیلی کمتر بهروزرسانی میشه، شاید هر سال یا هر ۱۸ ماه یک بار.
گزینه دیگه برای بهبود عملکرد یه برنامه هوش مصنوعی مولد، تولید افزوده بازیابی (RAG) است؛ تکنیکی برای گسترش مدل پایه تا از منابع مرتبط خارج از دادههای آموزشی برای اصلاح پارامترها و رسیدن به دقت یا مرتبط بودن بیشتر استفاده کنه.
عاملهای هوش مصنوعی (AI agents) و هوش مصنوعی عاملمحور (Agentic AI)
یک عامل هوش مصنوعی یه برنامه هوش مصنوعی مستقله که میتونه بدون دخالت انسان، با طراحی گردش کار خودش و استفاده از ابزارهای موجود (برنامهها یا سرویسهای دیگه)، وظایفی رو انجام بده و به اهدافی به نمایندگی از یه کاربر یا سیستم دیگه برسه.
هوش مصنوعی عاملمحور سیستمی از چندین عامل هوش مصنوعیه که تلاشهاشون برای انجام یه کار پیچیدهتر یا رسیدن به یه هدف بزرگتر از چیزی که هر عامل به تنهایی میتونه انجام بده، هماهنگ یا سازماندهی میشه.
برخلاف چتباتها و مدلهای دیگه هوش مصنوعی که در چارچوب محدودیتهای از پیش تعریفشده عمل میکنن و به دخالت انسان نیاز دارن، عاملهای هوش مصنوعی و هوش مصنوعی عاملمحور، استقلال، رفتار هدفمند و سازگاری با شرایط متغیر رو از خودشون نشون میدن. اصطلاحات «عامل» و «عاملمحور» به عاملیت این مدلها، یا ظرفیت اونها برای عمل مستقل و هدفمند اشاره داره.
یه راه برای فکر کردن به عاملها اینه که اونها رو گام طبیعی بعدی بعد از هوش مصنوعی مولد بدونیم. مدلهای هوش مصنوعی مولد روی خلق محتوا بر اساس الگوهای یادگرفته شده تمرکز میکنن؛ عاملها از اون محتوا برای تعامل با همدیگه و ابزارهای دیگه برای تصمیمگیری، حل مسئله و تکمیل وظایف استفاده میکنن. برای مثال، یه برنامه هوش مصنوعی مولد شاید بتونه با توجه به برنامه کاری شما، بهترین زمان برای صعود به قله اورست رو بهتون بگه، اما یه عامل میتونه این رو بهتون بگه و بعد با استفاده از یه سرویس مسافرتی آنلاین، بهترین پرواز رو براتون رزرو کنه و یه اتاق تو راحتترین هتل نپال براتون بگیره.
مزایای هوش مصنوعی
هوش مصنوعی مزایای بیشماری در صنایع و کاربردهای مختلف ارائه میده. برخی از مزایای رایج عبارتند از:
- خودکارسازی کارهای تکراری.
- بینش بیشتر و سریعتر از دادهها.
- تصمیمگیری بهتر.
- خطاهای انسانی کمتر.
- در دسترس بودن ۲۴ ساعته در ۷ روز هفته.
- کاهش خطرات فیزیکی.
خودکارسازی کارهای تکراری
هوش مصنوعی میتونه کارهای روتین، تکراری و اغلب خستهکننده رو خودکار کنه، از جمله کارهای دیجیتالی مثل جمعآوری، ورود و پیشپردازش دادهها، و کارهای فیزیکی مثل برداشتن موجودی انبار و فرآیندهای تولیدی. این خودکارسازی، آدما رو آزاد میکنه تا روی کارهای با ارزشتر و خلاقانهتر کار کنن.
تصمیمگیری بهتر
هوش مصنوعی، چه برای پشتیبانی از تصمیمگیری استفاده بشه و چه برای تصمیمگیری کاملاً خودکار، پیشبینیهای سریعتر و دقیقتر و تصمیمات دادهمحور و قابل اعتمادی رو ممکن میکنه. هوش مصنوعی در ترکیب با خودکارسازی، به کسبوکارها این امکان رو میده که به محض ظهور فرصتها و بحرانها، به صورت آنی و بدون دخالت انسان، اقدام کنن.
خطاهای انسانی کمتر
هوش مصنوعی میتونه خطاهای انسانی رو به روشهای مختلفی کاهش بده، از راهنمایی آدما در مراحل درست یه فرآیند گرفته تا هشدار دادن در مورد خطاهای احتمالی قبل از وقوع اونها و خودکارسازی کامل فرآیندها بدون دخالت انسان. این موضوع به ویژه تو صنایعی مثل مراقبتهای بهداشتی مهمه که برای مثال، رباتیک جراحی با هدایت هوش مصنوعی، دقت ثابتی رو فراهم میکنه.
الگوریتمهای یادگیری ماشین میتونن با قرار گرفتن در معرض دادههای بیشتر و «یادگیری» از تجربه، به طور مداوم دقت خودشون رو بهبود ببخشن و خطاها رو بیشتر کاهش بدن.
در دسترس بودن و ثبات شبانهروزی
هوش مصنوعی همیشه روشنه، به صورت شبانهروزی در دسترسه و هر بار عملکرد ثابتی ارائه میده. ابزارهایی مثل چتباتهای هوش مصنوعی یا دستیارهای مجازی میتونن بار کاری کارکنان خدمات مشتری یا پشتیبانی رو کم کنن. تو کاربردهای دیگه مثل پردازش مواد یا خطوط تولید، هوش مصنوعی میتونه با انجام کارهای تکراری یا خستهکننده، به حفظ کیفیت کار و سطح تولید ثابت کمک کنه.
کاهش خطر فیزیکی
هوش مصنوعی با خودکارسازی کارهای خطرناک مثل کنترل حیوانات، کار با مواد منفجره، انجام وظایف در اعماق اقیانوس، ارتفاعات زیاد یا در فضا، میتونه نیاز به قرار دادن کارگران انسانی در معرض خطر آسیب یا بدتر از اون رو از بین ببره. اگرچه هنوز کامل نشدن، اما ماشینهای خودران و وسایل نقلیه دیگه، پتانسیل کاهش خطر آسیب به مسافران رو دارن.
کاربردهای هوش مصنوعی
کاربردهای واقعی هوش مصنوعی خیلی زیادن. اینجا فقط یه نمونه کوچیک از موارد استفاده در صنایع مختلف برای نشون دادن پتانسیلش آورده شده:
تجربه، خدمات و پشتیبانی مشتری
شرکتها میتونن از چتباتها و دستیارهای مجازی مبتنی بر هوش مصنوعی برای رسیدگی به سوالات مشتریان، تیکتهای پشتیبانی و موارد دیگه استفاده کنن. این ابزارها از قابلیتهای پردازش زبان طبیعی (NLP) و هوش مصنوعی مولد برای درک و پاسخ به سوالات مشتریان در مورد وضعیت سفارش، جزئیات محصول و سیاستهای بازگشت کالا استفاده میکنن.
چتباتها و دستیارهای مجازی، پشتیبانی همیشه فعال رو ممکن میکنن، به سوالات متداول (FAQs) سریعتر جواب میدن، کارمندای انسانی رو آزاد میکنن تا روی کارهای سطح بالاتر تمرکز کنن و به مشتریان خدمات سریعتر و باثباتتری ارائه میدن.
تشخیص کلاهبرداری
الگوریتمهای یادگیری ماشین و یادگیری عمیق میتونن الگوهای تراکنش رو تحلیل کنن و ناهنجاریهایی مثل هزینههای غیرعادی یا مکانهای ورود به سیستم غیرمعمول رو که نشوندهنده تراکنشهای کلاهبردارانه هستن، شناسایی کنن. این کار به سازمانها اجازه میده تا سریعتر به کلاهبرداریهای احتمالی پاسخ بدن و تأثیر اون رو محدود کنن و برای خودشون و مشتریان، آرامش خاطر بیشتری فراهم کنن.
بازاریابی شخصیسازی شده
خردهفروشیها، بانکها و شرکتهای دیگهای که با مشتری سر و کار دارن، میتونن از هوش مصنوعی برای ایجاد تجربیات مشتری و کمپینهای بازاریابی شخصیسازی شده استفاده کنن که مشتریان رو خوشحال میکنه، فروش رو بهبود میبخشه و از ریزش مشتری جلوگیری میکنه. بر اساس دادههای تاریخچه خرید و رفتارهای مشتری، الگوریتمهای یادگیری عمیق میتونن محصولات و خدماتی رو که احتمالاً مشتریان میخوان، توصیه کنن و حتی متن تبلیغاتی و پیشنهادات ویژه شخصیسازی شده برای هر مشتری رو به صورت آنی تولید کنن.
منابع انسانی و استخدام
پلتفرمهای استخدام مبتنی بر هوش مصنوعی میتونن با غربالگری رزومهها، تطبیق نامزدها با شرح وظایف شغلی و حتی انجام مصاحبههای اولیه با استفاده از تحلیل ویدیو، فرآیند استخدام رو سادهتر کنن. این ابزارها و ابزارهای دیگه میتونن حجم عظیم کاغذبازیهای اداری مرتبط با بررسی تعداد زیادی از نامزدها رو به شدت کاهش بدن. همچنین میتونن زمان پاسخدهی و زمان استخدام رو کم کنن و تجربه بهتری برای نامزدها، چه شغل رو بگیرن و چه نگیرن، ایجاد کنن.
توسعه و نوسازی اپلیکیشن
ابزارهای تولید کد هوش مصنوعی مولد و ابزارهای خودکارسازی میتونن کارهای کدنویسی تکراری مرتبط با توسعه اپلیکیشن رو ساده کنن و مهاجرت و نوسازی (تغییر فرمت و پلتفرم) اپلیکیشنهای قدیمی رو در مقیاس بزرگ تسریع کنن. این ابزارها میتونن سرعت کارها رو بالا ببرن، به اطمینان از یکپارچگی کد کمک کنن و خطاها رو کاهش بدن.
نگهداری و تعمیرات پیشبینانه
مدلهای یادگیری ماشین میتونن دادههای سنسورها، دستگاههای اینترنت اشیاء (IoT) و فناوری عملیاتی (OT) رو تحلیل کنن تا پیشبینی کنن چه زمانی به تعمیر و نگهداری نیاز خواهد بود و خرابی تجهیزات رو قبل از وقوع پیشبینی کنن. نگهداری پیشگیرانه مبتنی بر هوش مصنوعی به جلوگیری از توقف کار کمک میکنه و به شما این امکان رو میده که قبل از اینکه مشکلات زنجیره تأمین بر سودآوری تأثیر بذاره، از اونها جلوتر باشید.
چالشها و ریسکهای هوش مصنوعی
سازمانها دارن برای بهرهبرداری از آخرین فناوریهای هوش مصنوعی و استفاده از مزایای زیاد اون، با هم رقابت میکنن. این پذیرش سریع ضروریه، اما پذیرش و نگهداری گردش کار هوش مصنوعی با چالشها و ریسکهایی همراهه.
ریسکهای داده
سیستمهای هوش مصنوعی به مجموعه دادههایی متکی هستن که ممکنه در برابر مسمومیت داده، دستکاری داده، سوگیری داده یا حملات سایبری که میتونن منجر به نشت داده بشن، آسیبپذیر باشن. سازمانها میتونن با حفاظت از یکپارچگی دادهها و پیادهسازی امنیت و در دسترس بودن در کل چرخه عمر هوش مصنوعی، از توسعه و آموزش گرفته تا استقرار و پس از استقرار، این ریسکها رو کاهش بدن.
ریسکهای مدل
عوامل تهدید میتونن مدلهای هوش مصنوعی رو برای سرقت، مهندسی معکوس یا دستکاری غیرمجاز هدف قرار بدن. مهاجمان ممکنه با دستکاری معماری، وزنها یا پارامترهای مدل، یکپارچگی اون رو به خطر بندازن؛ یعنی اجزای اصلی که رفتار، دقت و عملکرد مدل رو تعیین میکنن.
ریسکهای عملیاتی
مثل همه فناوریها، مدلها هم در معرض ریسکهای عملیاتی مثل انحراف مدل (model drift)، سوگیری و نقص در ساختار حاکمیت هستن. اگه به این ریسکها رسیدگی نشه، میتونن منجر به شکست سیستم و آسیبپذیریهای امنیت سایبری بشن که عوامل تهدید میتونن از اونها استفاده کنن.
ریسکهای اخلاقی و حقوقی
اگه سازمانها هنگام توسعه و استقرار سیستمهای هوش مصنوعی، ایمنی و اخلاق رو در اولویت قرار ندن، با خطر نقض حریم خصوصی و تولید نتایج جانبدارانه روبرو میشن. برای مثال، دادههای آموزشی جانبدارانه که برای تصمیمگیریهای استخدامی استفاده میشن، ممکنه کلیشههای جنسیتی یا نژادی رو تقویت کنن و مدلهای هوش مصنوعیای بسازن که گروههای جمعیتی خاصی رو به بقیه ترجیح میدن.
اخلاق و حاکمیت هوش مصنوعی
اخلاق هوش مصنوعی یه حوزه چندرشتهایه که چگونگی بهینهسازی تأثیرات مفید هوش مصنوعی رو ضمن کاهش ریسکها و نتایج نامطلوب، مطالعه میکنه. اصول اخلاق هوش مصنوعی از طریق یه سیستم حاکمیت هوش مصنوعی که شامل چارچوبهای محافظتی برای اطمینان از ایمن و اخلاقی موندن ابزارها و سیستمهای هوش مصنوعیه، اعمال میشه.
حاکمیت هوش مصنوعی شامل مکانیزمهای نظارتیه که به ریسکها رسیدگی میکنه. یه رویکرد اخلاقی به حاکمیت هوش مصنوعی نیازمند مشارکت طیف وسیعی از ذینفعان، از جمله توسعهدهندگان، کاربران، سیاستگذاران و متخصصان اخلاقه تا به اطمینان از اینکه سیستمهای مرتبط با هوش مصنوعی مطابق با ارزشهای جامعه توسعه و استفاده میشن، کمک کنه.
در ادامه ارزشهای رایج مرتبط با اخلاق هوش مصنوعی و هوش مصنوعی مسئولانه رو میبینید:
توضیحپذیری و تفسیرپذیری
هرچقدر هوش مصنوعی پیشرفتهتر میشه، درک و ردیابی اینکه الگوریتم چطور به یک نتیجه رسیده برای ما آدما سختتر میشه. هوش مصنوعی توضیحپذیر (Explainable AI) مجموعهای از فرآیندها و روشهاست که به کاربرای انسانی این امکان رو میده تا نتایج و خروجیهای تولید شده توسط الگوریتمها رو تفسیر کنن، بفهمن و بهش اعتماد کنن.
انصاف و فراگیری
اگرچه یادگیری ماشین، ذاتاً نوعی تبعیض آماریه، اما این تبعیض زمانی مشکلساز میشه که گروههای ممتاز رو به طور سیستماتیک در موقعیت برتر و برخی گروههای غیرممتاز رو به طور سیستماتیک در موقعیت نامساعد قرار بده و به طور بالقوه باعث آسیبهای مختلف بشه. برای ترویج انصاف، متخصصان میتونن سعی کنن سوگیری الگوریتمی رو در سراسر جمعآوری دادهها و طراحی مدل به حداقل برسونن و تیمهای متنوعتر و فراگیرتری بسازن.
استحکام و امنیت
هوش مصنوعی مستحکم، شرایط استثنایی مثل ناهنجاری در ورودی یا حملات مخرب رو بدون ایجاد آسیب ناخواسته، به طور مؤثر مدیریت میکنه. همچنین طوری ساخته شده که با محافظت در برابر آسیبپذیریهای آشکار، در مقابل تداخلهای عمدی و غیرعمدی مقاومت کنه.
پاسخگویی و شفافیت
سازمانها باید مسئولیتها و ساختارهای حاکمیتی روشنی رو برای توسعه، استقرار و نتایج سیستمهای هوش مصنوعی پیادهسازی کنن. علاوه بر این، کاربرا باید بتونن ببینن یه سرویس هوش مصنوعی چطور کار میکنه، عملکردش رو ارزیابی کنن و نقاط قوت و ضعفش رو بفهمن. افزایش شفافیت، اطلاعاتی رو برای مصرفکنندگان هوش مصنوعی فراهم میکنه تا بهتر درک کنن که مدل یا سرویس هوش مصنوعی چطور ساخته شده.
حریم خصوصی و انطباق با مقررات
بسیاری از چارچوبهای نظارتی، از جمله GDPR، سازمانها رو ملزم میکنن که هنگام پردازش اطلاعات شخصی، از اصول حریم خصوصی خاصی پیروی کنن. مهمه که بتونیم از مدلهای هوش مصنوعی که ممکنه حاوی اطلاعات شخصی باشن محافظت کنیم، کنترل کنیم که چه دادههایی در وهله اول وارد مدل میشن و سیستمهای سازگاری بسازیم که بتونن با تغییرات در مقررات و نگرشها در مورد اخلاق هوش مصنوعی، خودشون رو وفق بدن.
هوش مصنوعی ضعیف در مقابل هوش مصنوعی قوی
برای اینکه استفاده از هوش مصنوعی رو در سطوح مختلف پیچیدگی و پیشرفت درک کنیم، محققان انواع مختلفی از هوش مصنوعی رو تعریف کردن که به سطح پیشرفت اون اشاره داره:
هوش مصنوعی ضعیف: که بهش «هوش مصنوعی محدود» (narrow AI) هم میگن، به سیستمهای هوش مصنوعیای گفته میشه که برای انجام یه کار خاص یا مجموعهای از کارها طراحی شدن. مثالهاش میتونن برنامههای دستیار صوتی «هوشمند» مثل الکسای آمازون و سیری اپل، یه چتبات شبکههای اجتماعی یا خودروهای خودران وعده داده شده توسط تسلا باشن.
هوش مصنوعی قوی: که بهش «هوش مصنوعی عمومی» (AGI) یا «هوش مصنوعی کلی» هم میگن، توانایی درک، یادگیری و به کارگیری دانش در طیف وسیعی از وظایف رو در سطحی برابر با یا فراتر از هوش انسان داره. این سطح از هوش مصنوعی در حال حاضر تئوریه و هیچ سیستم هوش مصنوعی شناخته شدهای به این سطح از پیشرفت نزدیک نشده. محققان معتقدن که اگه هوش مصنوعی عمومی اصلاً ممکن باشه، به افزایشهای عمدهای در قدرت محاسباتی نیاز داره. با وجود پیشرفتهای اخیر در توسعه هوش مصنوعی، سیستمهای هوش مصنوعی خودآگاه داستانهای علمی تخیلی، همچنان محکم تو همون قلمرو باقی موندن.
تاریخچه هوش مصنوعی
ایده «ماشینی که فکر میکند» به یونان باستان برمیگرده. اما از زمان ظهور محاسبات الکترونیکی (و در ارتباط با برخی از موضوعات مورد بحث در این مقاله)، رویدادها و نقاط عطف مهم در تکامل هوش مصنوعی شامل موارد زیره:
۱۹۵۰
آلن تورینگ مقالهی «ماشینهای محاسباتی و هوش» رو منتشر میکنه. در این مقاله، تورینگ که به خاطر شکستن کد انیگمای آلمان در طول جنگ جهانی دوم مشهوره و اغلب به عنوان «پدر علم کامپیوتر» ازش یاد میشه، این سوال رو مطرح میکنه: «آیا ماشینها میتوانند فکر کنند؟»
از اونجا، اون یه آزمون رو ارائه میده که حالا به نام «آزمون تورینگ» معروفه. تو این آزمون، یه بازجوی انسانی سعی میکنه بین پاسخ متنی یه کامپیوتر و یه انسان تمایز قائل بشه. در حالی که این آزمون از زمان انتشارش خیلی مورد نقد قرار گرفته، اما همچنان بخش مهمی از تاریخ هوش مصنوعیه و یه مفهوم ادامهدار در فلسفه محسوب میشه، چون از ایدههای حوزه زبانشناسی استفاده میکنه.
۱۹۵۶
جان مککارتی اصطلاح «هوش مصنوعی» رو در اولین کنفرانس هوش مصنوعی در کالج دارتموث ابداع میکنه. (مککارتی بعداً زبان Lisp رو اختراع کرد.) اواخر همون سال، آلن نیوول، جی.سی. شاو و هربرت سایمون، Logic Theorist رو ایجاد کردن که اولین برنامه کامپیوتری هوش مصنوعی در حال اجرا بود.
۱۹۶۷
فرانک روزنبلات، Mark 1 Perceptron رو میسازه، اولین کامپیوتری که بر اساس یه شبکه عصبی کار میکرد و از طریق آزمون و خطا «یاد میگرفت». فقط یک سال بعد، ماروین مینسکی و سیمور پاپرت کتابی به نام Perceptrons رو منتشر میکنن که هم به یه اثر برجسته در مورد شبکههای عصبی تبدیل میشه و هم، حداقل برای مدتی، به استدلالی علیه طرحهای تحقیقاتی آینده شبکههای عصبی.
۱۹۸۰
شبکههای عصبی، که از الگوریتم پسانتشار (backpropagation) برای آموزش خودشون استفاده میکنن، به طور گسترده در کاربردهای هوش مصنوعی مورد استفاده قرار گرفتن.
۱۹۹۵
استوارت راسل و پیتر نورویگ کتاب «هوش مصنوعی: یک رویکرد مدرن» رو منتشر میکنن که به یکی از کتابهای درسی پیشرو در مطالعه هوش مصنوعی تبدیل میشه. در اون، اونها به چهار هدف یا تعریف بالقوه از هوش مصنوعی میپردازن که سیستمهای کامپیوتری رو بر اساس عقلانیت و تفکر در مقابل عمل کردن، متمایز میکنه.
۱۹۹۷
کامپیوتر Deep Blue شرکت IBM، گری کاسپاروف، قهرمان وقت شطرنج جهان رو در یه مسابقه (و مسابقه مجدد) شطرنج شکست میده.
۲۰۰۴
جان مککارتی در مقالهای به نام «هوش مصنوعی چیست؟» مینویسه و یه تعریف از هوش مصنوعی رو پیشنهاد میده که اغلب بهش استناد میشه. در این زمان، عصر کلاندادهها (big data) و محاسبات ابری در جریانه و به سازمانها این امکان رو میده که حجمهای دادهای روزافزون رو مدیریت کنن؛ دادههایی که یه روزی برای آموزش مدلهای هوش مصنوعی استفاده خواهند شد.
۲۰۱۱
کامپیوتر Watson شرکت IBM قهرمانان مسابقه Jeopardy! یعنی کن جنینگز و برد راتر رو شکست میده. همچنین، در همین حوالی، علم داده به عنوان یه رشته محبوب شروع به ظهور میکنه.
۲۰۱۵
ابرکامپیوتر Minwa شرکت Baidu از یه شبکه عصبی عمیق ویژه به نام شبکه عصبی کانولوشنی برای شناسایی و طبقهبندی تصاویر با نرخ دقت بالاتر از میانگین انسان استفاده میکنه.
۲۰۱۶
برنامه AlphaGo شرکت DeepMind، که توسط یه شبکه عصبی عمیق قدرت گرفته، لی سدول، قهرمان جهان بازی Go رو در یه مسابقه پنجگانه شکست میده. این پیروزی با توجه به تعداد بسیار زیاد حرکات ممکن با پیشرفت بازی (بیش از ۱۴.۵ تریلیون بعد از فقط چهار حرکت!)، اهمیت زیادی داره. بعدها، گوگل شرکت DeepMind رو به مبلغ گزارش شده ۴۰۰ میلیون دلار خریداری کرد.
۲۰۲۲
ظهور مدلهای زبان بزرگ (LLMs)، مثل ChatGPT شرکت OpenAI، تغییر عظیمی در عملکرد هوش مصنوعی و پتانسیل اون برای ایجاد ارزش در کسبوکارها به وجود میاره. با این شیوههای جدید هوش مصنوعی مولد، مدلهای یادگیری عمیق میتونن روی حجم زیادی از دادهها از قبل آموزش ببینن.
۲۰۲۴
آخرین ترندهای هوش مصنوعی به یه رنسانس مداوم هوش مصنوعی اشاره دارن. مدلهای چندوجهی که میتونن انواع مختلفی از دادهها رو به عنوان ورودی بگیرن، تجربیات غنیتر و قویتری رو فراهم میکنن. این مدلها قابلیتهای بینایی کامپیوتر برای تشخیص تصویر و قابلیتهای NLP برای تشخیص گفتار رو با هم ترکیب میکنن. مدلهای کوچکتر هم در عصری که مدلهای عظیم با تعداد پارامترهای زیاد با بازدهی نزولی مواجه شدن، در حال پیشرفت هستن.
پاسخی بگذارید