رمزگشایی هوش: نگاهی عمیق به منطق زیربنایی هوش مصنوعی
گشودن اصول هسته ای هوش مصنوعی
بخش اول: مناظره منطقی درباره هوش: دیدگاه های فلسفی و تاریخی
"منطق زیربنایی" هوش مصنوعی (AI) یک مفهوم واحد و ثابت نیست. بلکه از یک مناظره فکری چند دهه ای در مورد چگونگی ایجاد هوش ناشی می شود. برای درک هوش مصنوعی، ابتدا باید به ریشه های فکری آن - تضاد و تلفیق دو مکتب فلسفی اصلی: نمادگرایی (Symbolicism) و ارتباط گرایی (Connectionism) - پرداخت. این مکاتب نمایانگر دیدگاه های کاملاً متضاد از هوش هستند و اقبال متغیر آنها، مسیر تاریخی و جهت آینده کل حوزه هوش مصنوعی را شکل داده است.
1.1 دو مکتب فکری
ساختار منطقی هوش مصنوعی در دو مسیر اصلی آشکار می شود: دستکاری نمادین از بالا به پایین و یادگیری الهام گرفته از زیست شناسی از پایین به بالا.
نمادگرایی (منطق "از بالا به پایین")
نمادگرایی که به عنوان منطق گرایی یا مکتب کامپیوتر نیز شناخته می شود، مبتنی بر این باور اصلی است که جوهر هوش در دستکاری نمادها بر اساس مجموعه ای از قواعد روشن و صورت بندی شده نهفته است. این یک رویکرد "از بالا به پایین" است، با این فرض که شناخت انسان و فرایندهای فکری را می توان به عملیات نمادین تعمیم داد. در این دیدگاه، هوش به عنوان یک فرآیند استدلال منطقی دیده می شود و می توان ذهن را به یک برنامه کامپیوتری تشبیه کرد که روی داده های ساختاریافته اجرا می شود.
بارزترین نمود این مکتب، سیستم های خبره (Expert Systems) است. این سیستمها در دهه های 1970 و 1980 دوران طلایی خود را سپری کردند و اولین موفقیت تجاری گسترده هوش مصنوعی را رقم زدند. هدف آنها شبیه سازی فرآیندهای تصمیم گیری متخصصان انسانی در زمینه های خاص و محدود (مانند تشخیص پزشکی یا تجزیه و تحلیل شیمیایی) از طریق یک پایگاه دانش حاوی تعداد زیادی از قواعد "اگر-آنگاه" بود. موفقیت سیستم های خبره، نمادگرایی را به اوج خود رساند و آن را در آن زمان تقریباً مترادف با هوش مصنوعی کرد.
ارتباط گرایی (منطق "از پایین به بالا")
در مقابل نمادگرایی، ارتباط گرایی که به عنوان مکتب بیونیک نیز شناخته می شود، استدلال می کند که هوش یک پدیده نوظهور (emergent) است. تحت سلطه یک کنترل کننده مرکزی یا قواعد از پیش تعیین شده نیست، بلکه از تعاملات پیچیده بین تعداد زیادی از واحدهای پردازش ساده و متصل به هم (یعنی نورون های مصنوعی) ناشی می شود. این منطق "از پایین به بالا" از ساختار مغز انسان الهام گرفته است و بر این باور است که هوش برنامه ریزی نشده است، بلکه با یادگیری الگوها از داده ها به دست می آید.
باور اصلی ارتباط گرایی این است که رفتارهای پیچیده می توانند از تعاملات محلی ساده، بدون نیاز به قواعد صریح جهانی ناشی شوند. تجسم فناوری اصلی آن شبکه های عصبی مصنوعی (ANNs) است. این مدلها با آموزش روی مقادیر زیادی از دادههای نمونه و تنظیم مداوم "وزنها" (یعنی قدرتهای اتصال) بین نورونها، روابط پیچیده بین ورودیها و خروجیها را یاد میگیرند.
1.2 آونگ تاریخ: صعود، زمستان و احیا
تاریخ توسعه هوش مصنوعی، تاریخ پیشرفت خطی نیست، بلکه بیشتر شبیه آونگی است که بین نمادگرایی و ارتباط گرایی به عقب و جلو حرکت می کند. این فرآیند به طور ژرفی آشکار می کند که موفقیت یا شکست یک الگوی نظری نه تنها به عمق ایده های آن، بلکه به محدودیت های فناوری و شرایط اقتصادی زمان نیز بستگی دارد. منطق زیربنایی هوش مصنوعی در خلاء تکامل نمی یابد و مسیر توسعه آن نتیجه مستقیم تعامل پیچیده بین (1) اندیشه فلسفی جریان اصلی، (2) قدرت محاسباتی موجود و (3) امکان سنجی اقتصادی است.
مزایای اولیه و اولین زمستان هوش مصنوعی
در روزهای اولیه هوش مصنوعی، ارتباط گرایی پتانسیل زیادی از خود نشان داد. با این حال، در سال 1969، ماروین مینسکی، چهره ای برجسته در نمادگرایی، کتاب پرسپترون ها (Perceptrons) را منتشر کرد که به یک نقطه عطف کلیدی در تاریخ تبدیل شد. مینسکی به طور دقیق از نظر ریاضی ثابت کرد که شبکه های عصبی تک لایه ساده در آن زمان (یعنی پرسپترون ها) نمی توانند برخی از اساسی ترین مسائل، مانند مسئله منطقی "یا انحصاری" (XOR) را حل کنند. این نقد دقیق آکادمیک، همراه با کمبود عمومی قدرت محاسباتی رایانه در آن زمان، ضربه ای ویرانگر به تحقیقات ارتباط گرایانه وارد کرد. بودجه تحقیقات به شدت کاهش یافت و تحقیقات شبکه عصبی وارد یک دوره رکود شد که بیش از یک دهه به طول انجامید و به عنوان اولین “زمستان هوش مصنوعی” شناخته می شود. در این دوره، منطق نمادگرایی موقعیت غالبی را به خود اختصاص داد.
عصر طلایی نمادگرایی و دومین زمستان هوش مصنوعی
سیستم های خبره در دهه 1980 شکوفا شدند و نمادگرایی را به اوج کاربردهای تجاری رساندند. با این حال، محدودیتهای آن به تدریج آشکار شد: ساخت سیستمهای خبره پرهزینه بود، نگهداری از پایگاههای دانش دشوار بود، نمیتوانستند اطلاعات مبهم را مدیریت کنند و توانایی یادگیری خودکار دانش جدید را نداشتند. در نهایت، شکست تجاری "ماشینهای Lisp" که مخصوصاً برای اجرای برنامههای هوش مصنوعی نمادین (مانند زبان Lisp) استفاده میشد، پایان این دوره را رقم زد. ظهور رایانههای با کاربرد عمومی (مانند IBM PC) با عملکرد قویتر و قیمت پایینتر، این دستگاههای سختافزاری اختصاصی را غیررقابتی کرد و پس از آن حوزه هوش مصنوعی وارد دومین زمستان شد. این بار دیگر ثابت می کند که اگر یک منطق نظری بخواهد به توسعه خود ادامه دهد، باید یک پایه سخت افزاری قوی و اقتصادی به عنوان پشتیبان داشته باشد.
احیای ارتباط گرایی
احیای ارتباط گرایی تصادفی نبود، بلکه ناشی از سه عامل کلیدی بود:
پیشرفتهای الگوریتمی: در طول "زمستان"، معرفی الگوریتم های پس انتشار و اختراع ساختارهای شبکه پیچیده تر مانند شبکه های حافظه بلند مدت (LSTMs) بنیان الگوریتمی را برای آموزش مؤثر شبکه های عصبی ایجاد کرد.
سیل داده: محبوبیت اینترنت مقدار بیسابقهای از داده را به ارمغان آورد. این داده ها "تغذیه" کافی را برای شبکه های عصبی که به تعداد زیادی نمونه برای آموزش نیاز دارند، فراهم کرد.
انقلاب قدرت محاسباتی: پردازندههای گرافیکی (GPU) که در ابتدا برای بازیهای ویدیویی طراحی شده بودند، دارای معماری محاسباتی موازی عظیمی هستند که برای عملیات ماتریس اصلی در شبکههای عصبی کاملاً مناسب تشخیص داده شد. ظهور GPUها بنبست قدرت محاسباتی را که برای دههها ارتباط گرایی را آزار داده بود، شکست و اجازه داد پتانسیل نظری آن واقعاً رها شود.
در نهایت، همگرایی الگوریتمها، دادهها و قدرت محاسباتی، انقلاب یادگیری عمیق را شعله ور کرد و منطق ارتباط گرایی را به جریان اصلی بلامنازع در حوزه هوش مصنوعی امروزی تبدیل کرد.
1.3 بنبست فلسفی: درک در مقابل شبیهسازی
اختلاف تاریخی بین دو مکتب بزرگ در نهایت به یک پرسش فلسفی عمیق منتهی میشود که تا به امروز حل نشده است: آیا ماشینی که قادر به شبیهسازی کامل رفتار هوشمندانه است، واقعاً از توانایی درک (understand) برخوردار است؟
آزمون تورینگ
"آزمون تورینگ" آلن تورینگ یک تعریف عملی و رفتاری از هوش ارائه می دهد. این آزمایش شامل این است که آیا یک ماشین می تواند با یک انسان مکالمه داشته باشد و انسان نتواند تشخیص دهد که آیا این یک ماشین است یا یک فرد. در این صورت ماشین را می توان هوشمند در نظر گرفت. آزمون تورینگ از پرسش اساسی "هوش چیست" اجتناب می کند و به "هوش چه رفتاری باید از خود نشان دهد" می پردازد.
آزمایش فکری "اتاق چینی"
فیلسوف جان سرل آزمایش فکری مشهور "اتاق چینی" را در سال 1980 پیشنهاد کرد و حمله ای شدید به نمادگرایی و آزمون تورینگ آغاز کرد. این آزمایش به این صورت تصور می شود: شخصی که زبان چینی را نمی فهمد در اتاقی زندانی می شود و اتاق حاوی یک دفترچه راهنمای دقیق قوانین پردازش زبان چینی (معادل یک برنامه) است. او از طریق یک پنجره یادداشت هایی را با کاراکترهای چینی نوشته شده روی آنها (ورودی) دریافت می کند و سپس به طور دقیق از دستورالعمل های موجود در دفترچه راهنمای قانون پیروی می کند تا کاراکترهای مربوطه را پیدا و ترکیب کند و سپس نتایج را از پنجره خارج می کند (خروجی). برای افراد خارج از اتاق، پاسخ اتاق هیچ تفاوتی با پاسخ یک فرد بومی چینی زبان ندارد، بنابراین آزمون تورینگ را می گذراند.
با این حال، سرل اشاره کرد که فرد داخل اتاق هرگز معنی (semantics) هیچ یک از کاراکترهای چینی را از ابتدا تا انتها درک نکرده است و تمام کاری که انجام داده است دستکاری نمادین خالص (syntax) بوده است. سرل نتیجه گرفت که صرفاً دستکاری نمادها، مهم نیست که چقدر پیچیده باشد، هرگز نمی تواند "درک" واقعی ایجاد کند. این استدلال به شدت دیدگاه "هوش مصنوعی قوی" (یعنی این باور که یک کامپیوتر با برنامه ریزی درست می تواند از ذهن برخوردار شود) را به چالش می کشد.
امروزه هوش مصنوعی مدرن که توسط مدل های زبانی بزرگ (LLM) ارائه می شود، را می توان به نوعی نسخه فوق العاده ارتقا یافته "اتاق چینی" در نظر گرفت. آنها با تطبیق آماری الگوها در مقادیر زیادی از داده های متنی، پاسخ های ظاهراً هوشمندانه ایجاد می کنند. بحث بر سر اینکه آیا آنها واقعاً زبان را "درک" می کنند یا فقط "طوطی های تصادفی" پیچیده هستند، ادامه بحث تورینگ در مقابل سرل در دوران مدرن است.
برای مدت طولانی، نمادگرایی و ارتباط گرایی به عنوان دو الگوی متقابل در نظر گرفته شده اند. با این حال، "جنگ" تاریخ در حال پایان یافتن به شکل یک سنتز (synthesis) است. منطق زیربنایی آینده یک انتخاب یا انتخاب نیست، بلکه تلفیقی از این دو است. این روند در ظهور هوش مصنوعی عصبی-نمادین (Neuro-Symbolic AI) منعکس شده است. هدف این حوزه ترکیب قابلیت های قدرتمند تشخیص الگو شبکه های عصبی با قابلیت های استدلال منطقی دقیق سیستم های نمادین، با هدف ساخت سیستم های قدرتمندتری است که هم بتوانند یاد بگیرند و هم استدلال کنند. به عنوان مثال، عوامل هوش مصنوعی مدرن می توانند ابزارهای نمادین خارجی (مانند ماشینحساب ها، پرسش های پایگاه داده) را برای افزایش توانایی های خود فراخوانی کنند، که این یک ترکیب عملی از مدل های عصبی و ابزارهای نمادین است.
علاوه بر این، معماری "ترکیبی از متخصصان (Mixture of Experts, MoE)" در مدل های زبانی بزرگ مدرن نیز از نظر مفهومی با سیستم های خبره نمادگرایی همخوانی دارد. مدل MoE از چندین زیر شبکه "متخصص" تخصصی و یک شبکه "دروازه" تشکیل شده است که مسئول انتخاب مناسب ترین متخصص برای رسیدگی به هر ورودی است. این از نظر عملکردی شبیه به یک سیستم نمادین است که ماژول های عملکردی خاصی را بر اساس قوانین فراخوانی می کند، اما پیاده سازی آن کاملاً ارتباط گرایانه است - از طریق یادگیری سرتاسری و بهینه سازی تفاضلی. این نشان می دهد که منطق زیربنایی هوش مصنوعی از تقابل به سمت مکمل بودن در حال حرکت است و با تلفیق، قابلیت های قدرتمند بی سابقه ای ایجاد می کند.
جدول 1: مقایسه الگوهای اساسی هوش مصنوعی: نمادگرایی در مقابل ارتباط گرایی
ویژگی | نمادگرایی (از بالا به پایین) | ارتباط گرایی (از پایین به بالا) |
---|---|---|
اصل هسته ای | هوش با دستکاری نمادها و پیروی از قواعد رسمی به دست می آید. | هوش از تعامل تعداد زیادی واحدهای ساده و متصل به هم پدیدار می شود. |
بازنمایی دانش | پایگاه دانش صریح و ساختاریافته (به عنوان مثال، قواعد "اگر-آنگاه"). | دانش ضمنی، توزیع شده، کدگذاری شده در وزن های اتصالات شبکه. |
روش استدلال | استدلال بر اساس استنتاج منطقی، جستجو و قواعد ابتکاری. | استدلال بر اساس تشخیص الگو مبتنی بر داده و استنتاج آماری. |
فناوری های کلیدی | سیستم های خبره، برنامه نویسی منطقی، نمودارهای دانش. | شبکه های عصبی مصنوعی، یادگیری عمیق، مدل های زبانی بزرگ. |
مزایا | قابلیت تفسیر قوی، از نظر منطقی دقیق، در زمینه های تعریف شده به خوبی برتر است. | توانایی یادگیری قوی، می تواند داده های مبهم و بدون ساختار را مدیریت کند، توانایی تعمیم دهی خوب. |
معایب | گلوگاه دستیابی به دانش، توانایی ضعیف در مدیریت عدم قطعیت، سیستم شکننده. | مسئله “جعبه سیاه” (قابلیت تفسیر ضعیف)، نیاز به مقدار زیادی داده و قدرت محاسباتی، مستعد حملات خصمانه. |
اوج تاریخی | دوران سیستم های خبره در دهه 1970 و 1980. | دوران یادگیری عمیق از سال 2010 تا به امروز. |
چهره های برجسته | ماروین مینسکی، هربرت ای. سایمون، آلن نیوول. | جفری هینتون، یان لکون، جان هاپفیلد، فیفی لی. |
بخش دوم: زبان جهانی هوش مصنوعی مدرن: اصول اساسی ریاضیات
برای آشکار ساختن راز هوش مصنوعی مدرن، باید متوجه شد که "منطق زیربنایی" آن، عقل سلیم یا استدلال انسانی نیست، بلکه یک زبان ریاضی دقیق و جهانی است. به طور خاص، هوش مصنوعی تحت سلطه ارتباط گرایی اساساً ریاضیات کاربردی است که توسط "داده، الگوریتمها و قدرت محاسباتی" هدایت میشود. فرآیندهای تولید، یادگیری و بهینهسازی هوش را میتوان به همافزایی سه رکن ریاضی تجزیه کرد: آمار احتمالات، جبر خطی و حساب دیفرانسیل و انتگرال.
2.1 ماهیت ریاضی هوش مصنوعی
وظیفه اصلی هوش مصنوعی کنونی را معمولاً می توان اینگونه توصیف کرد: یافتن یک راه حل تقریباً بهینه در یک فضای مساله پیچیده و با ابعاد بالا. به جای حل مسائل با تلاش خسته کننده برای تمام احتمالات، از روش های ریاضی برای یافتن راه حلی به اندازه کافی خوب استفاده می کند. ریاضیات ابزارهای مدل سازی رسمی و زبانهای توصیفی علمی را در اختیار هوش مصنوعی قرار می دهد و سنگ بنای ساخت، درک و بهبود سیستمهای هوش مصنوعی است.
2.2 رکن 1: احتمال و آمار - منطق عدم قطعیت
نظریه احتمال و آمار یک چارچوب نظری برای استدلال در محیط های نامشخص و استخراج الگوها از داده ها در اختیار هوش مصنوعی قرار می دهد. مدل های هوش مصنوعی اساساً سیستم های احتمالی هستند که توزیع زیربنایی داده ها را یاد می گیرند تا پیش بینی ها و تصمیم گیری ها را انجام دهند.
با این حال، ظهور داده های بزرگ یک چالش جدی برای مبانی آمار سنتی به وجود می آورد. نظریه های آماری سنتی، مانند قانون اعداد بزرگ و قضیه حد مرکزی، بیشتر بر اساس این فرضیه ها هستند که نمونه ها "مستقل و یکسان توزیع شده" (i.i.d.) هستند و اندازه نمونه n بسیار بزرگتر از تعداد ویژگی ها p است (p ≪ n). اما در عصر داده های بزرگ، این فرضیه ها اغلب نقض میشوند. به عنوان مثال، در وظایف تشخیص تصویر، یک تصویر با وضوح بالا ممکن است حاوی میلیونها پیکسل باشد (ویژگی p)، در حالی که مجموعه داده آموزشی ممکن است فقط دهها هزار تصویر داشته باشد (نمونه n)، که منجر به مشکل "نفرین ابعاد" میشود که در آن p ≫ n. در این حالت، به راحتی می توان "همبستگی های کاذب" ایجاد کرد که روش های آماری سنتی را باطل می کند.
ظهور یادگیری عمیق، تا حدی پاسخی به این چالش است. روشی را برای یادگیری خودکار بازنمایی ویژگیهای مؤثر از دادههای با ابعاد بالا بدون تکیه بر فرضیههای آماری سنتی ارائه می دهد. با این وجود، ایجاد یک پایه آماری محکم برای این الگوی داده جدید هنوز یک مسئله ریاضی مهم است که نیاز فوری به حل شدن در تحقیقات هوش مصنوعی کنونی دارد.
2.3 رکن 2: جبر خطی - منطق بازنمایی
جبر خطی "زبان جهانی" دنیای هوش مصنوعی است و ابزارهای اساسی برای بازنمایی داده ها و مدل ها را فراهم می کند. در شبکه های عصبی، چه ورودی (مانند پیکسل های یک تصویر، بردارهای کلمه های متن)، پارامترهای مدل (وزن ها) و چه خروجی نهایی؛ همه آنها به صورت یک ساختار عددی بیان می شوند: بردارها، ماتریس ها یا تانسورهای با ابعاد بالاتر.
عملکرد اصلی در شبکه های عصبی، مانند وزن دهی یک نورون و جمع کردن تمام ورودی های آن؛ اساساً ضرب ماتریس ها و بردارها است. دلیل اینکه چرا GPU ها می توانند به شدت آموزش هوش مصنوعی را تسریع کنند، دقیقاً به این دلیل است که معماری سخت افزاری آنها برای اجرای کارآمد این عملیات جبر خطی موازی مقیاس بزرگ بسیار بهینه شده است.
2.4 رکن 3: حساب دیفرانسیل و انتگرال و بهینه سازی - منطق یادگیری
فرآیند یادگیری هوش مصنوعی اساساً یک مسئله بهینه سازی (Optimization) ریاضی است. هدف یافتن مجموعه ای از پارامترهای مدل (به عنوان مثال، وزن ها و بایاس ها در یک شبکه عصبی) است که تفاوت بین پیش بینی های مدل و پاسخ های واقعی را به حداقل می رساند. این تفاوت توسط یک تابع زیان Function Loss) اندازه گیری می شود.
نزول گرادیان: موتور یادگیری
نزول گرادیان (Gradient Descent) الگوریتم اصلی برای دستیابی به این هدف است و موتوری است که یادگیری تقریباً تمام مدل های هوش مصنوعی مدرن را هدایت می کند.
ایده اصلی: نزول گرادیان یک الگوریتم بهینه سازی تکراری است که هدف آن یافتن کمترین نقطه یک تابع زیان است. این فرآیند را می توان به طور استعاری با فردی مقایسه کرد که در مه غلیظ از کوهی پایین می آید. او نمی تواند ببیند که پایین ترین نقطه دره کجاست، اما می تواند شیب زمین زیر پاهای خود را حس کند. عقلانی ترین استراتژی این است که با قدمی کوچک در امتداد تندترین جهت سرازیری در موقعیت فعلی حرکت کند و سپس این فرایند را تکرار کند.
فرایند خاص:
مقداردهی اولیه: ابتدا یک مجموعه اولیه از پارامترهای مدل (وزن ها و بایاس ها) را به طور تصادفی تنظیم کنید.
محاسبه زیان: از پارامترهای فعلی استفاده کنید و مدل را وادارید تا در داده های آموزشی پیش بینی کند و مجموع خطا (زیان) بین پیش بینی ها و برچسب های واقعی را محاسبه کند.
محاسبه گرادیان: از مشتقات جزئی (Partial Derivatives) در حساب دیفرانسیل و انتگرال برای محاسبه گرادیان (Gradient) تابع زیان نسبت به هر پارامتر استفاده کنید. گرادیان یک بردار است که در جهت سریعترین افزایش در مقدار تابع زیان قرار دارد.
به روز رسانی پارامترها: هر پارامتر را قدمی کوچک در جهت مخالف گرادیان آن حرکت دهید. اندازه این گام توسط یک فرابرپارامتر به نام نرخ یادگیری (Learning Rate) (معمولاً با η نشان داده می شود) کنترل می شود. فرمول به روز رسانی این است: پارامترجدید = پارامترقدیمی − η × گرادیان.
تکرار: به طور مداوم مراحل 2 تا 4 را هزاران بار تکرار کنید. هر تکرار پارامترهای مدل را تنظیم می کند و باعث می شود مقدار زیان به تدریج کاهش یابد. هنگامی که مقدار زیان دیگر به طور قابل توجهی کاهش پیدا نمی کند، الگوریتم به یک نقطه حداقل محلی یا جهانی "همگرا" می شود و فرآیند یادگیری پایان می یابد.
انواع الگوریتم: بسته به میزان داده استفاده شده در هر تکرار، انواع مختلفی از نزول گرادیان وجود دارد، مانند GD دسته ای، SGD تصادفی و GD دسته ای کوچک، که نقاط مقابل متفاوتی را بین کارآیی محاسباتی و پایداری همگرایی ارائه می دهند.
ریاضیات زبان یکپارچه ای است که تمام الگوهای هوش مصنوعی مدرن را به هم متصل می کند. چه رگرسیون خطی ساده باشد، چه ماشینهای بردار پشتیبان پیچیده و چه شبکه های عصبی عمیق بزرگ؛ منطق زیربنایی یادگیری آنها مشترک است: یک مدل تعریف کنید، یک تابع زیان تعریف کنید و سپس از یک الگوریتم بهینه سازی (مانند نزول گرادیان) برای یافتن پارامترهایی استفاده کنید که تابع زیان را به حداقل می رسانند. این چارچوب ریاضی مبتنی بر "به حداقل رساندن زیان" منطق اصلی واقعی چگونگی یادگیری ماشین ها از داده ها است.
منطق ریاضی هوش مصنوعی همچنین نشان دهنده تغییر اساسی از منطق سنتی برنامه نویسی است. برنامه نویسی سنتی قطعی و دقیق است. از طرف دیگر، هوش مصنوعی احتمالی و تقریبی است. همانطور که تحقیقات نشان داده است، هدف هوش مصنوعی معمولاً یافتن یک راه حل کاملاً عالی اثبات پذیر نیست (که اغلب برای مسائل پیچیده دنیای واقعی غیرممکن است)، بلکه یافتن یک راه حل تقریبی است که "به اندازه کافی خوب" باشد. ویژگی "جعبه سیاه" هوش مصنوعی نتیجه مستقیم این تغییر است. ما می توانیم اینکه آیا مؤثر است را با ارزیابی زیان ها یا دقت آن اندازه گیری کنیم، اما توضیح چگونگی کارکرد آن با منطق واضح مرحله به مرحله دشوار است، همانطور که می توانیم با الگوریتم های سنتی انجام دهیم. این به این دلیل است که "راه حل" هوش مصنوعی مجموعه ای از قوانین قابل خواندن توسط انسان نیست، بلکه یک تابع پیچیده با ابعاد بالا است که توسط میلیون ها پارامتر عددی بهینه شده کدگذاری شده است. "منطق" ذاتی آن در ریخت شناسی هندسی فضای چند بعدی شکل گرفته توسط تابع زیان تجسم یافته است، نه خود قواعد معنایی.
بخش سوم: روشهای یادگیری - چگونگی کسب دانش توسط هوش مصنوعی
هوش مصنوعی با تکیه بر اصول اساسی ریاضیات، سه استراتژی یادگیری اصلی یا "الگوهای یادگیری" را توسعه داده است. این الگوها بر اساس انواع داده ها و سیگنال های بازخورد موجود برای سیستم هوش مصنوعی در طول آموزش طبقه بندی می شوند، یعنی: یادگیری نظارت شده، یادگیری بدون نظارت و یادگیری تقویتی.
3.1 یادگیری نظارت شده: یادگیری با مربی
یادگیری نظارت شده پرکاربردترین الگوی یادگیری ماشین است.
منطق اصلی: مدل از یک مجموعه داده برچسب گذاری شده (labeled) یاد می گیرد. در این مجموعه داده، هر نمونه ورودی به صراحت با پاسخ خروجی درست جفت می شود. این فرآیند مانند این است که یک دانش آموز برای امتحان با مجموعه ای از تمرینات با پاسخ های استاندارد آماده می شود.
فرایند یادگیری: مدل یک پیش بینی برای یک نمونه ورودی انجام می دهد و سپس پیش بینی را با برچسب واقعی مقایسه می کند، و خطا (زیان) را محاسبه می کند. سپس، از الگوریتمهای بهینهسازی مانند نزول گرادیان برای تنظیم پارامترهای داخلی مدل برای کاهش این خطا استفاده میشود.
وظایف و الگوریتم های اصلی:
طبقه بندی: پیش بینی یک برچسب دسته ای گسسته. به عنوان مثال، قضاوت در مورد اینکه آیا یک ایمیل "هرزنامه" است یا "هرزنامه نیست" یا شناسایی اینکه آیا یک حیوان در یک تصویر "گربه" است یا "سگ". الگوریتم های رایج عبارتند از رگرسیون لجستیک، درختان تصمیم و ماشین های بردار پشتیبان (SVM).
رگرسیون: پیش بینی یک مقدار عددی پیوسته. به عنوان مثال، پیش بینی قیمت یک خانه یا دمای فردا. الگوریتم های رایج عبارتند از رگرسیون خطی و جنگل های تصادفی.
الزامات داده: موفقیت یادگیری نظارت شده به شدت به مقادیر زیادی داده با کیفیت بالا و برچسب گذاری شده دستی متکی است. به دست آوردن این داده های برچسب گذاری شده معمولاً پرهزینه و زمان بر است، که یک گلوگاه اصلی برای این روش است.
3.2 یادگیری بدون نظارت: یادگیری بدون مربی
یادگیری بدون نظارت ساختار ذاتی داده ها را بررسی می کند.
منطق اصلی: مدل داده های بدون برچسب (unlabeled) را دریافت می کند و باید به طور مستقل الگوها، ساختارها یا روابط پنهان در داده ها را کشف کند. این فرآیند مانند این است که یک انسان شناس یک قبیله ناشناخته را بدون هیچ راهنمایی مشاهده می کند و فقط می تواند گروه های اجتماعی و عادات رفتاری مختلف را از طریق مشاهده شناسایی کند.
وظایف و الگوریتم های اصلی:
خوشه بندی: گروه بندی نقاط داده مشابه با هم. به عنوان مثال، تقسیم مشتریان به گروههای مختلف بر اساس رفتار خرید آنها. الگوریتم های رایج عبارتند از K-Means و مدل های مخلوط گاوسی (GMM).
یادگیری قواعد ارتباطی: کشف روابط جالب بین اقلام داده. به عنوان مثال، کشف این قاعده که “مشتریانی که نان می خرند به احتمال زیاد شیر نیز می خرند” در تجزیه و تحلیل سبد بازار.
کاهش ابعاد: با یافتن مهم ترین ویژگی های اساسی در داده ها در حین حفظ بیشتر اطلاعات، داده ها را ساده کنید. به عنوان مثال، تحلیل مولفه اصلی (PCA).
اهمیت مهم: یادگیری بدون نظارت برای تحلیل اکتشافی داده ها حیاتی است و سنگ بنای مرحله “پیش آموزش” مدل های زبانی بزرگ مدرن (LLM) است و آنها را قادر می سازد دانش کلی زبان را از مقادیر زیادی از متن های بدون برچسب بیاموزند.
3.3 یادگیری تقویتی: یادگیری از طریق آزمون و خطا
یادگیری تقویتی از روانشناسی رفتاری الهام گرفته شده است و الگویی برای یادگیری با تعامل با یک محیط است.
- منطق اصلی: یک عامل (Agent) در یک محیط (Environment) عملی (Action) را انجام می دهد و پاداش ها (Reward) یا مجازات ها (Punishment) مربوطه را به عنوان بازخورد دریافت می کند. هدف عامل یادگیری یک سیاست (Policy) بهینه است, که