img

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

/
/
/

این مقاله نقشِ علم داده‌ها در یادگیریِ ماشین را توضیح داده، و به بررسیِ جنبه‌های گوناگون آنها می پردازد.

نام گوگل امروزه مترادفی برای جست و جوی آنلاین محسوب می شود. اغلب ما به این موضوع ایمان داریم، زیرا هر گاه که بخواهیم در مورد چیزی که برایم ناشناخته است اطلاعاتی را کسب کنیم، عبارت «در گوگل جست و جویش کن!» را استفاده می کنیم.
آیا تاکنون به این مسئله فکر کرده‌اید که گوگل چگونه می تواند در کسری از ثانیه پاسخی برای انواعِ سوالات ما بیابد؟ گوگل و سایرِ موتورهای جست و جو، به منظورِ یافتنِ بهترین نتایج برای درخواست‌های ما، از انواع گوناگونِ الگوریتم‌های علم داده‌ها و تکنیک‌های یادگیریِ ماشین استفاده می کنند.
با اینکه گوگل روزانه بیش از ۲۰ پتابایت داده‌ی ساخت یافته و ساخت نایافته را پردازش می کند، اما بازهم این قدرت را دارد تا نتایج جست و جوها را در چشم برهم زدنی نمایش دهد. نکته اینجا است که گوگل، همه‌ی این قدرت و توانایی‌ را مدیونِ وجودِ علم داده‌ها و یادگیریِ ماشین می باشد. علم داده‌ها، یکی از ریشه‌های حیات بخش به درختِ دنیای دیجیتال است.
این علم از آنجایی که با انواعِ بسیاری از فرآیندها و متودها و سیستم‌های علمی، در جهتِ استخراج دانش یا فهم عمیق از مجموعه‌های عظیمِ داده‌(ساخت یافته، و ساخت نایافته) سر و کار دارد، با نام علمِ داده محور نیز شناخته می شود.
پیرامونِ همه‌ی ما را انبوهی از داده‌ها فراگرفته است، که به جنبه‌های گوناگونی از زندگیِ ما مربوط هستند، مثلِ محاورات و مکاتبات، خرید، خواندنِ اخبار، جست و جوی اطلاعات، ابراز نظرهایی که در دنیای مجازی انجام می دهیم، و غیره.
با استفاده از تکنیک‌های مختلفِ علمِ داده، می توان از این داده‌های انبوه چیزهای بسیاری را فهمید. علم داده‌ها اساسا مفهومی است که علمِ آمار را با تحلیل داده‌ها متحد ساخته، و فعالیت‌های دنیای واقعی را با داده‌ها مربوط می سازد.
این علم، تکنیک‌ها و تئوری‌های فراوانی را از انواع رشته‌ها و علوم، از قبیلِ آمار، ریاضیات، دانشِ اطلاعات و علم رایانه و همین طور بسیاری از زیرشاخه‌های یادگیریِ ماشین، خوشه‌بندی، گروه‌بندی، پایگاه‌های داده، داده کاوی و مصورسازی(visualization) الهام می گیرد.
طبقِ نظرِ Jim Gray که از برندگانِ جایزه‌ی Turing نیز هست، علم داده‌ها چهارمین پارادایم درمیان علوم محسوب می گردد.

 

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

Gray اذعان می دارد که همه چیز درباره‌ی علم با سرعت در حالِ تغییر است، که دلیل آن را نیز تاثیر فن‌آوریِ اطلاعات، و حجمِ سیل‌آسای داده‌ها می داند.
علم داده‌ها نقشی اساسی در معنا بخشیدن به اطلاعاتِ جمع‌‎آوری شده در طی داده‌انگاری(datafication) بازی می کند. داده‌انگاری چیزی غیر از در نظر گرفتن جنبه‌های مختلف زندگی، و تبدیل آنها به داده نیست. به عنوانِ مثال، twitter افکار مختف و پراکنده، و LinkedIn شبکه‌های کاریابی را داده‌انگاری می کند.
ما از تکنیک‌های مختلفِ علم‌داده‌ها برای استخراجِ بخش‌های سودمندِ اطلاعات جمع‌آوری شده در خلالِ داده‌انگاری استفاده می کنیم.
Drew Conway شخصی است که نمودارِ وِنی رابرای علم داده‌ها ترسیم کرد. وی مطالعات خود را پیرامونِ بررسی و تحلیلِ یکی از بزرگترین مشکلات جهان، یعنی تروریسم انجام داده است. اگر ما نگاهی به نمودارِ ونِ او بیندازیم، علم داده‌ها را اجماعی از مهارت‌های هک، دانشِ ریاضی و آمار و تخصص در یک زمینه‌ی بخصوص خواهیم یافت.
طبق نظرِ Conway، علم داده‌ها به منزله‌ی مهندسیِ عمران برای داده‌ها می باشد. در این علم داشتنِ دانشِ کاربردی درباره‌ی ابزار و موادِ گوناگون، و دانستنِ اینکه چه چیزی را می توان انجام داد لازم است.

 

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

گردش کار برای علم داده‌ها
برای بدست آوردن درکی صحیح از یک مجموعه داده‌ی خام، بایستی از یکسری فرآیندهایی که علم داده‌ها از آنها تشکیل شده پیروی نمود، که حاصل این کار کمک به سیستم در جهت گرفتن تصمیم است.
در زیر نگاهی خواهیم داشت به فرآیندهایی که در علم داده‌ها از آنها پیروی می شود.
جمع‌آوریِ داده‌های خام: نخستین گام در علم داده‌ها محسوب می شود، و با مجموعه‌ای از داده‌های خامی سروکار دارد، که عملیات علم داده‌ها برروی آنها انجام می شود. به طور کلی برای انجام این عملیات دو راه وجود دارد:
۱- می توانیم از یک یا چند ابزارِ موجود برای جمع آوریِ خودکارِ داده از منابعِ داده‌ای مختلف استفاده کنیم. از این گزینه بیشتر برای جمع‌آوری داده از منابعِ کلان داده استفاده می شود. تنها کاری که لازم است انجام دهیم، کپی کردن چند خط کد، و انتقال آنها به وب سایت خودمان است.(به عنوان مثال Hotjar، Google Analytics و…)
۲- می توانیم با استفاده از کدهای JavaScript خودمان اقدام به جمع‌آوری داده کنیم، که در این روش داده‌ها به صورت فایلِ متنیِ ساده‌ی .csv ارسال می شوند. انجام این کار از آنجایی که نیاز به مهارت‌های کدنویسی دارد، کمی دشوار است. اما اگر ما نگاهی دوراندیشانه داشته باشیم، این روش برایمان فوایدِ بیشتری خواهد داشت.
پردازشِ داده: در این راه داده‌های خامی که در طیِ فرآیندِ جمع ‌آوری داده به دست آمده‌اند، پالایش می شوند.
بدیهی است که داده‌های خام، نامرتب و پردازش نشده هستند، و بایستی منظم شوند تا انجام عملیات برروی آنها ساده‌تر گردد. هنگامی که داده پردازش شد، داده‌ای در اختیار ما خواهد بود که پردازش یافته، طبقه‌بندی شده، و خلاصه شده می باشد.
پردازشِ داده برای اغلبِ آزمایش‌ها و بررسی‌ها ضروری است. گاهی داده‌های خامِ جمع‌‌آوری شده برای آنکه موردِ تحلیل قرار گیرند بیش از حد زیاد هستند. این مسئله خصوصا وقتی رخ می دهد که از رایانه‌ها برای تحقیق استفاده کرده باشیم، که بعدا لازم است داده دستخوش تغییر و سازماندهی توسط تکنیک‌های واسازی(deconstruction) قرار گیرد.
پاکسازیِ مجموعه‌ی داده: فرآیندی است که در آن داده‌های نامطلوب از داده‌های پردازش شده حذف گردیده، و تنها داده‌هایی که برای تحلیل ضروری هستند حفظ می شوند. این کار با حذف داده‌های غلط یا متناقض، به ایجاد مجموعه‌ای کوچکتر، که تحلیل کردن آن ساده‌تر است، منجر می شود.
تحلیلِ اکتشافیِ داده‌ها: از این روش به منظورِ تحلیلِ مجموعه‌های داده، به منظورِ ارائه‌ی خلاصه‌ای از ویژگی‌های مهم آنها استفاده می شود، که اغلب از متودهای تصویری استفاده می کند. البته از یک مدل آماری نیز می توان استفاده کرد، اما اهمیت اصلیِ تحلیلِ اکتشافیِ داده، در تجلی بخشیدن به چیزی بیش ازفقط مدل سازیِ معمولی و یا آزمودن فرضیه می باشد.
استفاده از این روش توسط John Tukey ترویج شد، تا دانشمندانِ علوم داده‌ها به اکتشاف در داده‌ها تشویق شوند، تا اینگونه فرضیه‌هایی که می توانند منجر به ایجاد متودهای جدیدِ جمع آوری داده شوند، شانسِ رشد و نمو پیدا کنند. این روش از تحلیلِ داده‌ی مقدماتی متمایز است، که عمدتا بر روی چک کردنِ پیش فرض‌های لازم برای تناسبِ مدل، آزمودنِ فرضیه، کار کردن با مقدارهای گوناگونِ نامعلوم و تغییردادنِ متغیرها در صورت لزوم، کاربرد دارد.
مدل‌ها و الگوریتم‌ها: هنگامی که داده‌ها پاکسازی شدند، برخی از مجموعه‌های داده‌ نیاز دارند تا تحتِ تحلیلِ اکتشافی نیز قرار گیرند. این درحالی است که برخی دیگر را می توان مستقیما به عنوان داده‌ای الگو و الگوریتمی استفاده کرد. این بخش از علم داده‌ها، با فرآیندِ انتخابِ الگوریتم مناسب و صحیح سروکار دارد، که مبنای آن داده‌ی بدست آمده بعد از پاکسازیِ مجموعه‌ی داده‌ها، و دانشی است که از این داده‌ها در خلالِ تحلیلِ اکتشافی بدست آمده می باشد. الگوریتمِ منتخب، الگوریتمی است که برای داده‌ی موجود مناسب‌ترین باشد. این فرآیند همچنین طراحی، توسعه و انتخاب مدل‌های داده را نیز شامل شده، که از این مدل ها به عنوان ورودی، و از خروجی به عنوان الگویی برای عملیات اصلی که قرار است بر روی داده‌های اصلی و واقعی انجام شود استفاده می کنیم.
گزارشِ ارتباط: این قسمت از علم داده‌ها که با تولید و توسعه‌ی گزارش‌های تصویری که به شکل گراف و نمودارِ دایره‌ای هستند سروکار دارد، ودانشمندانِ علم داده‌ها از این گزارش‌ها برای تحلیلِ الگوهای داده‌ای و اتخاذِ تصمیم‌های صحیح استفاده می کنند. این تصمیمات محصول نهایی بوده، که کاربردهای فراوانی نیز دارند.
داده‌ی تولیدی: این داده آن چیزی است که سیستم با تحلیلِ آن رشد و تکامل می یابد. این داده را می توان محصول نهایی در نظر گرفت، که نماینده‌ی تمام عملیات‌هایی است بر روی داده‌ی خام جمع آوری شده انجام گرفته است.

 

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

یادگیریِ ماشین چیست؟
یادگیریِ ماشین بخشی از علم رایانه است، که به هر سیستمی این قدرت را می دهد تا بدونِ نیازِ به برنامه ریزی شدن، خودش یادبگیرد. بدین ترتیب شکل یادگیریِ دستگاه، چیزی شبیهِ یادگیریِ ما انسان‌ها می شود.
همانگونه که ما با هر پدیده‌ای، بر اساس تجربیات و دانش بدست آمده از تحلیل آن پدیده آشنا می شویم، ماشین‌ها نیز به وسیله‌ی یادگیریِ ماشین قادر می شوند تا با بررسیِ رفتارها و یا داده‌ی خروجیِ یک پدیده، و با مطالعه و تحلیل آن، با پدیده‎‌ی مذبور آشنا شوند، و بر اساس تجربیاتِ خود تصمیم گیری نمایند.
یادگیری ماشین، ستون فقراتِ هوش مصنوعی محسوب می گردد، که ماشین را بی نیاز نسبت به برنامه ریزیِ مستقیم می سازد. هنگامی که ماشین با داده‌های تازه‌ای مواجه می شود، بصورت خودکفا یاد می گیرد، رشد می کند، و تغییر می یابد. یادگیری ماشین از مفهوم تشخیصِ الگو و نظریه‌ی یادگیریِ محاسباتی در هوش مصنوعی تکامل یافته است.
این علم به بررسیِ ساختارِ الگوریتم‌های گوناگونی می پردازد که ماشین بتواند با استفاده از آنها یادگرفته، و براساس آنها پیشبینی کند. این الگوریتم‌ها از فرمان‌هایی ایستا دنباله روی نمی کنند، بلکه پیش بینی هایی داده محور را انجام داده، یا بر اساسِ مدل هایی که از روی ورودی‌های دستچین شده می سازند، دست به تصمیم گیری می زنند.
اکنون به سه نوع از انواعِ یادگیریِ ماشین نظری خواهیم داشت، که براساس شکل یادگیری در سیستم، نسبت به یکدیگر متمایز می باشند.
۱- یادگیریِ با نظارت: در این نوع از یادگیری، آموزگار به ماشین مقداری داده‌ی دستچین شده، به همراهِ خروجیِ موردِ انتظار را می دهد. هدف در این روش، یادگرفتنِ قانونی کلی، که ورودی را به خروجی ربط دهد می باشد.
۲- یادگیریِ بدونِ نظارت: نوعی از یادگیری ماشین بوده که در آن به الگوریتم‌های یادگیری هیچ برچسبی(label) داده نمی شود، و آنها برای پیدا کردنِ ساختار در داده‌ی ورودی به حالِ خود رها هستند.
۳- یادگیریِ تقویتی: در این نوع از سیستم یادگیری، نرم افزار در واقع با محیطِ پویایی که قرار است در آن هدفی را دنبال کند، در تعامل می باشد(برای مثال، راندنِ یک وسیله‌ی نقلیه یا بازی کردن در مقابلِ حریف)

 

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

یادگیریِ ماشین چگونه به علم داده‌ها مربوط می شود؟
یادگیریِ ماشین به علم داده‌ها یا محاسباتِ آماری ارتباطِ نزدیکی دارد(گاهی هم پوشانی نیز دارد)، زیرا که هر دوی آنها تمرکزشان برروی تصمیم گیری با کمک ماشین‌ها یا رایانه‌ها می باشد. یادگیری ماشین پیوندِ محکمی با بهینه‌سازی داشته، و به همین دلیل متودها و فرضیه‌های مختلفی را برای بهینه ساختنِ یادگیریِ سیستم‌ها فراهم می سازد.
این علم اغلب با علم داده‌ها که تمرکزِ آن بیشتر برروی تحلیل اکتشافی است ترکیب شده، که این ترکیب را با نام یادگیریِ بدونِ نظارت می شناسند. اگر بخواهیم دامنه‌ی بحث را تنها به علم داده‌ها محدود کنیم، یادگیریِ ماشین برای ایجادِ مدل‌ها و الگوریتم‌های پیچیده‌ی گوناگونی به کار می رود، که از این الگوریتم ها و مدل ها به منظور پیش بینی کردن استفاده می شود. این مطلب با نام تحلیلِ پیشگویانه نیز شناخته می شود. این مدل‌های تحلیلی به دانشمندانِ علم داده‌ها، محققین، مهندسان و تحلیل گران امکانِ گرفتنِ تصمیماتی قابل اتکا و تکرارپذیر را می دهند، که ارمغان آن فهم و درکی عمیق از روابط و گرایش‌های اتفاق افتاده در خلال بازه‌های زمانیِ مختلف در مجموعه‌های کلانِ داده می باشد.
به طور سنتی تحلیل داده‌ها همیشه به عنوانِ روشی مملو از آزمون و خطا شناخته شده است، و بدیهی است که استفاده از چنین روشی برای تحلیلِ مجموعه‌های عظیم و نامتجانسِ داده غیرممکن می باشد.
امکان دسترسی به داده‌های کلان نسبتی مستقیم به دشواری در یافتنِ و توسعه‌ی مدل‌های الگو و پیش بینی کننده‌ی کارآمد دارد. تمامیِ راه حل‌های آماریِ سنتی، تنها برای تحلیل‌های ایستا چاره ساز هستند، که تنها به تحلیلِ نمونه‌هایی محدود می شوند که یخ زده و لایتغیر باشند. یادگیریِ ماشین شوالیه‌ی سوار بر اسب سپیدی است که برای حل نمودنِ اوضاعِ آشوبناکِ تحلیل داده‌ها برخواسته است. این علم برای پردازشِ بی درنگ داده‌ها و تولید نتایج و تحلیل‌هایی صحیح و دقیق، الگوریتم‌هایی سریع و بهینه‌ای را در آستین خود دارد.

 

برخی از کاربردهای یادگیریِ ماشین
از یادگیری ماشین برای انجام کارهای بسیار استفاده می شود، که در اینجا چندی از آنها را برمی شماریم:
۱- خودرویِ خودگردانِ Google
۲- موتورهای پیشنهاد دهنده‌ی آنلاین، مانند آنچه که در facebook به عنوان پیشنهاد دوست مشاهده می شود
۳- پیشنهادهای خرید گوناگون از جانب Amazon
۴- تشخیصِ کلاهبرداریِ سایبری
۵- خواندن از روی متونِ چاپی(OCR)

 

نقشِ یادگیریِ ماشین در علم داده‌ها
۱- یادگیریِ ماشین تحلیلِ مجموعه‌های کلانِ داده را تسهیل می کند، که این امر در فرآیندهای خودکار شده، به دانشمندان کمک شایانی می کند.
۲- یادگیریِ ماشین با بکارگیریِ مجموعه‌ای از متودهایی تعمیم یافته، روش استخراج و ادراکِ داده را تغییر داده، و تکنیک‌های خشک و ایستا را منسوخ ساخته است.
۳- فهمی عمیق را از داده‌ها به ارمغان می آورد، که به ایجاد نرم افزارهایی هوشمندتر و داده محور کمک کرده، در نتیجه عملیات و فرآیندها را بهبود می بخشد، که نتیجه‌ی آن تسهیل در امرِ تصمیم گیری می باشد.
۴- هر چه از سامانه‌های نرم افزاریِ یادگیریِ ماشین بیشتر استفاده شود، عملکرد این سامانه‌ها بهتر و بهتر می شود، که دلیل آن وجود الگوریتم‌های بکار رفته در آنها است، که از داده‌های بدست آمده بر مبنای عملکردِ سیستم، در جهتِ توسعه‌ی سیستم استفاده می کنند.
۵- یادگیریِ ماشین به حل چالش‌های غیره منتظره‌ای که برای سیستم پیش می آید کمک می کند، که این توانایی را از تحلیل داده‌های کلان و تجربه‌ای که از این کار بدست می آورد انجام می دهد.
۶- با رایج شدن استفاده از یادگیری ماشین در صنایعِ مختلف، جا افتادنِ علم داده‌ها سریع تر رخ می دهد.

 

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

 

برخی از تکنیک‌های یادگیری ماشین که در علم داده‌ها کاربرد دارند
۱- یادگیریِ درخت تصمیم گیری: تکنیکِ یادگیریِ ماشینی است، که از درخت تصمیم‌‌ها(decision tree) به عنوان مدل پیش بینیِ خود استفاده کرده، و بیش از پیش مشاهدات انجام گرفته درباره‌ی یک آیتم را به نتایجِ برداشت شده از مقدارِ مورد انتظار از آن آیتم مربوط یا متصل می سازد.

۲- یادگیریِ قانونِ وابستگی: از این متود برای یافتنِ انواعِ روابطِ جالبِ توجه، در میان متغیرهای پایگاه‌های داده‌ی بزرگ استفاده می شود.
۳- شبکه‌ی عصبیِ مصنوعی: اینگونه از تکنیک‌های یادگیری، با نام شبکه‌های عصبی نیز شناخته می شوند. این الگوریتم‌های یادگیری از ساختار و عملکردِ شبکه‌های عصبیِ زیستی الگوبرداری می کنند.
محاسبات گوناگون در غالبِ گروه‌هایی ساختار یافته درمیانِ نرون‌هایی مصنوعی انجام می شوند، که از روش اتصال گرایی(connectionist approach) برای پردازشِ اطلاعات استفاده می کنند. تمامِ شکبه‌های عصبیِ امروزی، درواقع ابزارهای آماریِ غیرِ‌خطی هستند، که از روی داده‌ها مدل سازی می کنند. از این شبکه‌ها معمولا برای مدل‌سازیِ تعداد زیادی از روابطِ پیچیده‌ی میانِ ورودی‌ و خروجی‌، به منظور یافتنِ الگو در میان داده‌‌ها استفاده می شود.

۴- برنامه‌نویسیِ منطقیِ استنتاجی(ILP): از این روش برنامه‌نویسیِ منطقی، برای تجلی بخشیدن به انواعِ نمونه‌های ورودی، دانشِ پیش نیاز و فرضیه استفاده می کنند.
اگر به ما نوعی از تفسیرکننده‌های دانش پیش نیاز را به همراه مجموعه‌ای از نمونه‌ها، که نماینده‌ای از پایگاه‌های داده‌ی منطقی از حقایق باشند را بدهند، با استفاده از این داشته‌ها، یک سامانه ILP به راحتی یک برنامه‌ی منطقی فرضیه سازی شده را که تنها شامل مثال‌ مثبت باشد را می تواند به ما تقدیم کند.
این نوع از برنامه‌نویسی، همه‌ی انواعِ زبان‌های برنامه‌نویسی را برای منصه‌ی ظهور رسانیدنِ فرضیه‌ها را در نظر می گیرد، مثل چیزی که در یک نرم افزارِ کاربردی شاهد آن هستیم.

۵- خوشه‌سازی: تحلیلِ خوشه تکنیکی است که از آن به منظورِ منصوب کردنِ مجموعه‌ای از مشاهداتِ گوناگون به چندین زیرمجموعه(که خوشه نیز نامیده می شوند) استفاده می شود. این عمل به گونه‌ای انجام می گیرد که مشاهداتِ مربوط به یک خوشه، با برخی مشاهداتِ قبل از اعمال ظوابتِ خوشه‌ساز مشابه است. این در حالی است که مشاهدات انجام شده از تمامیِ خوشه‌های متفاوت، با یکدیگر متفاوت هستند. همه‌ی تکنیک‌های خوشه‌سازی بر فرض‌های متفاوتی که بر ساختار داده‌ها استواراند مبتنی هستند، که اغلب این ساختارها با توجه به شاخص تشابه تعریف و ارزشیابی می شوند. برای مثال نزدیکیِ اجزای داخلی و فاصله‌ای که میان خوشه‌های متفاوت وجود دارد از جمله‌ی این شاخص‌ها محسوب می شود. این تکنیک غالبا بدونِ نظارت بوده، و از جمله تکنیک‌های رایج در تحلیلِ داده‌ی آماری بشمار می رود.

۶- شبکه‌های بیزی(Bayesian): شبکه‌ی بیزی مدلی احتمال نگر و گرافیکی است، که نماینده‌ی مجموعه‌ا‌ی تصادفی از متغیرها و تمامِ استقلال‌های شرطی(conditional independencies) آنها با استفاده از گرافِ پیچشی جهت‌دار می باشد. به عنوان مثال یکی از کاربردهای این نوع شبکه، نشان دادنِ رابطه‌ی میان بیماری‌های مختلف، و علائم آنها است. اگر به ما علائم مختلفی داده شود، شبکه به آسانی قادر خواهد بود تا احتمال وجود نوعِ خاصی از بیماری را تخمین زند.

از الگوریتم‌های فوق‌العاده بهینه‌ای برای تفسیر و یادگیری در این نوع شبکه استفاده می شود.

۷- یادگیریِ تقویتی: تمرکزِ این تکنیک برروی بهبودِ ابتکارِ عملِ یک عامل دربرابر شرایط پیرامونی، به منظور دست یافتن به مطلوب‌ترین نتیجه‌ی ممکن در بازه‌ی زمانیِ طولانی می باشد. این نوع الگوریتم تلاش دارد تا سیاستی را اتخاذ کرده، که شرایط مختلف را به اعمالِ گوناگونِ عامل، که در تناسب با آن شرایط هستند را مربوط سازد. این نوع یادگیری با یادگیریِ با نظارت توفیر می کند، زیرا که اینجا از جفت‌های صحیحِ ورودی/خروجی خبری نبوده، و اعمالی که کیفیتشان کم‌تر از حد انتظار باشند نیز تصحیح نخواهند شد.

 

علم داده‌ها و یادگیریِ ماشین: پیوندی برای تولدِ دستگاه‌هایی باهوش‌تر

 

نظر بدهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

It is main inner container footer text