دستگاه معادلات خطی (System of Linear Equations) در ماتریس‌ها

دستگاه معادلات خطی یا همان System of Linear Equation، مجموعه‌ای از تعدادی معاله‌ی خطی است که هر کدام می‌تواند چندین مجهول داشته باشد. فرض کنید در یک شرکت داروسازی کار می‌کنید که این شرکت می‌خواهد تعدادی دارو به عنوان محصول تولید کند که برای ساخت هر کدام از این داروها نیاز به مقداری مواد اولیه دارد. این مسئله را می‌توان به صورت زیر فرموله کرد:

ادامه خواندن “دستگاه معادلات خطی (System of Linear Equations) در ماتریس‌ها”

شبکه‌های عصبی عمیق توالی به توالی (Seq2Seq)

شبکه‌های عصبی توالی به توالی یا همان sequence to sequence که به اختصار Seq2Seq نیز نامیده می‌شود ابتدا توسط گوگل جهت انجام عملیات ترجمه‌ی ماشینی (machine translation) ارائه شد. این شبکه‌ها که به نوعی همان شبکه‌های عصبی بازگشتی (RNN) هستند، توانایی دریافت توالی از ورودی‌ها و تبدیل آن‌ها به توالی از خروجی‌ها را دارند.

ادامه خواندن “شبکه‌های عصبی عمیق توالی به توالی (Seq2Seq)”

معیار کاپا (Kappa) برای ارزیابی طبقه‌بندی‌های چندکلاسه

در دروس گذشته یادگرفتیم که چگونه با استفاده از ماتریس اغتشاش (Confusion Matrix) و معیارهایی مانند دقت (Accuracy)، صحت (Precision) و معیار F1، کیفیت یک الگوریتمِ طبقه‌بندی را مشخص کنیم. در این درس به یکی دیگر از این معیارها به نام امتیاز کاپا (Kappa Score) که به معیار Cohen’s Kappa نیز معروف است می‌پردازیم. خواهیم دید که این معیار یک معیار مناسب، برای ارزیابی کیفیت الگوریتم‌های طبقه‌بندی چند کلاسه است.

ادامه خواندن “معیار کاپا (Kappa) برای ارزیابی طبقه‌بندی‌های چندکلاسه”

معیار صحت (Precision)، پوشش (Recall) و معیار F

در درس گذشته با ماتریس اغتشاش (Confusion Matrix) و معیار دقت (Accuracy) آشنا شدیم. دیدیم که با استفاده از یک مجموعه‌ی آزمون، می‌توانیم دقتِ الگوریتم را از روی ماتریس اغتشاش، به سادگی محاسبه کنیم. اما آیا این دقت، معیاری خوبی برای ارزیابی یک الگوریتم بود؟

ادامه خواندن “معیار صحت (Precision)، پوشش (Recall) و معیار F”

ماتریس اغتشاش (Confusion Matrix) و معیار دقت (Accuracy)

همان‌طور که تا اینجا در دوره طبقه‌بندی داده‌ها مشاهده کردید، ما به دنبال الگوریتمی هستیم با استفاده از داده‌های آموزشی، یادگیری را انجام دهد، و بتواند داده‌های جدید را حتی‌المکان به درستی پیش‌بینی یا همان طبقه‌بندی نماید. مشکل هنگامی پدیدار می‌شود که الگوریتم معمولاً نمی‌تواند دقتِ ۱۰۰درصدی داشته باشد. یعنی معمولاً کمی خطا در پیش‌بینیِ خود دارد.

ادامه خواندن “ماتریس اغتشاش (Confusion Matrix) و معیار دقت (Accuracy)”

فاصله‌ی جنسون-شنون (Jenson-Shannon) برای مقایسه‌ی توزیع‌های آماری

در درس گذشته در مورد واگرایی کولبک-لیبلر صحبت کردیم و گفتیم که این معیار واگرایی می‌تواند شباهت دو توزیع آماری را نمایش دهد. فاصله‌ی جنسون-شنون (Jenson-Shannon) نیز مانند کولبک-لیبلر رفتار می‌کند با این تفاوت که این فاصله بین دو توزیع آماری، تقارن دارد. یعنی فاصله‌ی توزیعِ اول و دوم برابر با فاصله‌ی توزیع دوم و اول است در حالی که در واگرایی کولبک-لیبلر این خاصیت برقرار نیست.

ادامه خواندن “فاصله‌ی جنسون-شنون (Jenson-Shannon) برای مقایسه‌ی توزیع‌های آماری”

واگرایی کولبک-لیبلر (Kullback-Leibler Divergence) و کاربرد آن در فاصله‌ی آماری

در چند درس گذشته به توزیع‌های آماری و فاصله‌ی آماری اشاره کردیم. در این درس می‌خواهیم یکی از معیارهای فاصله‌ی آماری به نام واگرایی کولبک-لیبلر که به صورت مخفف واگراییِ KL نیز خوانده می‌شود بپردازیم و ببینم که چگونه می‌توان با استفاده از این معیار، فاصله‌ی بین دو مجموعه‌ی داده را به صورت آماری محاسبه کرد.

ادامه خواندن “واگرایی کولبک-لیبلر (Kullback-Leibler Divergence) و کاربرد آن در فاصله‌ی آماری”

فاصله‌ی آماری (Statistical Distance) و کاربردهای آن

روش‌های متعددی برای مقایسه‌ی دو مجموعه‌ی داده با یکدیگر است. مثلاً می‌توان میانگین آن‌ها را با یکدیگر مقایسه کرد و یا پراکندگی (واریانس) آن‌ها را مورد مقایسه قرار داد. اما هر کدام از این مقایسه‌ها قسمتی از حقیقت را پنهان می‌کنند. به همین دلیل معیارهایی با نام فاصله‌ی آماری به وجود آمده است که با استفاده از آن‌ها بتوان مجموعه داده‌های مختلف و یا متغیرهای متفاوت را با یکدیگر مقایسه کرد.

ادامه خواندن “فاصله‌ی آماری (Statistical Distance) و کاربردهای آن”

توزیع‌های آماری (Statistical Distributions)

توزیع آماری به پراکندگی داده‌ها و فراوانیِ هر کدام از مقادیر آن‌ها می‌گویند. با استفاده از توزیعِ آماریِ یک متغیر، می‌توانیم به نحوه‌ی پراکندگی و احتمال هر کدام از قسمت‌های آن متغیر (در بازه‌ی پراکندگی) پی ببریم.

ادامه خواندن “توزیع‌های آماری (Statistical Distributions)”

شبکه عصبی واحد بازگشتی دروازه‌دار (GRU)

در دروس قبلیِ دوره‌ی جاری با شبکه‌های عصبی بازگشتی (RNN) ساده و LSTMها آشنا شدیم. شبکه‌های RNN ساده، مشکل محوشدگی گرادیان را داشتند و شبکه‌های LSTM نیز با این مشکل محوشدگی گرادیان را برطرف می‌کردند، ولی از لحاظ محاسبات سنگین و پیچیده بودند. شبکه‌های عصبی واحد بازگشتیِ دروازه‌دار یا همان Gated Recurrent Unit که به اختصار GRU گفته می‌شود، مشکل محوشدگی گرادیان را ندارند و از لحاظ محاسبات نیز ساده و سبک هستند.

ادامه خواندن “شبکه عصبی واحد بازگشتی دروازه‌دار (GRU)”