دستگاه معادلات خطی یا همان System of Linear Equation، مجموعهای از تعدادی معالهی خطی است که هر کدام میتواند چندین مجهول داشته باشد. فرض کنید در یک شرکت داروسازی کار میکنید که این شرکت میخواهد تعدادی دارو به عنوان محصول تولید کند که برای ساخت هر کدام از این داروها نیاز به مقداری مواد اولیه دارد. این مسئله را میتوان به صورت زیر فرموله کرد:
ادامه خواندن “دستگاه معادلات خطی (System of Linear Equations) در ماتریسها”شبکههای عصبی عمیق توالی به توالی (Seq2Seq)
شبکههای عصبی توالی به توالی یا همان sequence to sequence که به اختصار Seq2Seq نیز نامیده میشود ابتدا توسط گوگل جهت انجام عملیات ترجمهی ماشینی (machine translation) ارائه شد. این شبکهها که به نوعی همان شبکههای عصبی بازگشتی (RNN) هستند، توانایی دریافت توالی از ورودیها و تبدیل آنها به توالی از خروجیها را دارند.
ادامه خواندن “شبکههای عصبی عمیق توالی به توالی (Seq2Seq)”معیار کاپا (Kappa) برای ارزیابی طبقهبندیهای چندکلاسه
در دروس گذشته یادگرفتیم که چگونه با استفاده از ماتریس اغتشاش (Confusion Matrix) و معیارهایی مانند دقت (Accuracy)، صحت (Precision) و معیار F1، کیفیت یک الگوریتمِ طبقهبندی را مشخص کنیم. در این درس به یکی دیگر از این معیارها به نام امتیاز کاپا (Kappa Score) که به معیار Cohen’s Kappa نیز معروف است میپردازیم. خواهیم دید که این معیار یک معیار مناسب، برای ارزیابی کیفیت الگوریتمهای طبقهبندی چند کلاسه است.
ادامه خواندن “معیار کاپا (Kappa) برای ارزیابی طبقهبندیهای چندکلاسه”معیار صحت (Precision)، پوشش (Recall) و معیار F
در درس گذشته با ماتریس اغتشاش (Confusion Matrix) و معیار دقت (Accuracy) آشنا شدیم. دیدیم که با استفاده از یک مجموعهی آزمون، میتوانیم دقتِ الگوریتم را از روی ماتریس اغتشاش، به سادگی محاسبه کنیم. اما آیا این دقت، معیاری خوبی برای ارزیابی یک الگوریتم بود؟
ادامه خواندن “معیار صحت (Precision)، پوشش (Recall) و معیار F”ماتریس اغتشاش (Confusion Matrix) و معیار دقت (Accuracy)
همانطور که تا اینجا در دوره طبقهبندی دادهها مشاهده کردید، ما به دنبال الگوریتمی هستیم با استفاده از دادههای آموزشی، یادگیری را انجام دهد، و بتواند دادههای جدید را حتیالمکان به درستی پیشبینی یا همان طبقهبندی نماید. مشکل هنگامی پدیدار میشود که الگوریتم معمولاً نمیتواند دقتِ ۱۰۰درصدی داشته باشد. یعنی معمولاً کمی خطا در پیشبینیِ خود دارد.
ادامه خواندن “ماتریس اغتشاش (Confusion Matrix) و معیار دقت (Accuracy)”فاصلهی جنسون-شنون (Jenson-Shannon) برای مقایسهی توزیعهای آماری
در درس گذشته در مورد واگرایی کولبک-لیبلر صحبت کردیم و گفتیم که این معیار واگرایی میتواند شباهت دو توزیع آماری را نمایش دهد. فاصلهی جنسون-شنون (Jenson-Shannon) نیز مانند کولبک-لیبلر رفتار میکند با این تفاوت که این فاصله بین دو توزیع آماری، تقارن دارد. یعنی فاصلهی توزیعِ اول و دوم برابر با فاصلهی توزیع دوم و اول است در حالی که در واگرایی کولبک-لیبلر این خاصیت برقرار نیست.
ادامه خواندن “فاصلهی جنسون-شنون (Jenson-Shannon) برای مقایسهی توزیعهای آماری”واگرایی کولبک-لیبلر (Kullback-Leibler Divergence) و کاربرد آن در فاصلهی آماری
در چند درس گذشته به توزیعهای آماری و فاصلهی آماری اشاره کردیم. در این درس میخواهیم یکی از معیارهای فاصلهی آماری به نام واگرایی کولبک-لیبلر که به صورت مخفف واگراییِ KL نیز خوانده میشود بپردازیم و ببینم که چگونه میتوان با استفاده از این معیار، فاصلهی بین دو مجموعهی داده را به صورت آماری محاسبه کرد.
ادامه خواندن “واگرایی کولبک-لیبلر (Kullback-Leibler Divergence) و کاربرد آن در فاصلهی آماری”فاصلهی آماری (Statistical Distance) و کاربردهای آن
روشهای متعددی برای مقایسهی دو مجموعهی داده با یکدیگر است. مثلاً میتوان میانگین آنها را با یکدیگر مقایسه کرد و یا پراکندگی (واریانس) آنها را مورد مقایسه قرار داد. اما هر کدام از این مقایسهها قسمتی از حقیقت را پنهان میکنند. به همین دلیل معیارهایی با نام فاصلهی آماری به وجود آمده است که با استفاده از آنها بتوان مجموعه دادههای مختلف و یا متغیرهای متفاوت را با یکدیگر مقایسه کرد.
ادامه خواندن “فاصلهی آماری (Statistical Distance) و کاربردهای آن”توزیعهای آماری (Statistical Distributions)
توزیع آماری به پراکندگی دادهها و فراوانیِ هر کدام از مقادیر آنها میگویند. با استفاده از توزیعِ آماریِ یک متغیر، میتوانیم به نحوهی پراکندگی و احتمال هر کدام از قسمتهای آن متغیر (در بازهی پراکندگی) پی ببریم.
ادامه خواندن “توزیعهای آماری (Statistical Distributions)”شبکه عصبی واحد بازگشتی دروازهدار (GRU)
در دروس قبلیِ دورهی جاری با شبکههای عصبی بازگشتی (RNN) ساده و LSTMها آشنا شدیم. شبکههای RNN ساده، مشکل محوشدگی گرادیان را داشتند و شبکههای LSTM نیز با این مشکل محوشدگی گرادیان را برطرف میکردند، ولی از لحاظ محاسبات سنگین و پیچیده بودند. شبکههای عصبی واحد بازگشتیِ دروازهدار یا همان Gated Recurrent Unit که به اختصار GRU گفته میشود، مشکل محوشدگی گرادیان را ندارند و از لحاظ محاسبات نیز ساده و سبک هستند.
ادامه خواندن “شبکه عصبی واحد بازگشتی دروازهدار (GRU)”