مشکل محوشدگی گرادیان (Gradient Vanishing) در شبکه‌های عصبی عمیق

در دوره‌ی آشنایی با شبکه‌های عصبی، فهمیدیم که یک شبکه‌ی عصبی چگونه یادگیری را انجام می‌دهد. این شبکه‌ها با استفاده از عملیات پیش‌خور (feed forward) و پس انتشار خطا (back propagation)، وزن‌ها را آپدیت کرده و یادگیری را انجام می‌دهند.

ادامه خواندن “مشکل محوشدگی گرادیان (Gradient Vanishing) در شبکه‌های عصبی عمیق”

تفاوت شبکه‌های عصبی (Neural Networks) با یادگیری عمیق (Deep Learning) چیست؟

شبکه‌های عصبی عمیق (deep neural networks) منجر به یادگیری عمیق (deep learning) می‌شود. در واقع به عنوان تعریف ساده می‌توان گفت الگوریتم‌های یادگیری عمیق همان شبکه‌های عصبی هستند که تعداد لایه‌های آن‌ها زیاد است. این تعریف از یادگیری عمیق ساده و درست است اما اگر بخواهیم به معنای دقیق‌تر تفاوت بین یادگیری عمیق و شبکه‌های عصبی را درک کنیم، بایستی به این نکته توجه کنیم که یادگیری عمیق حالت یادگیری بوده در حالی که شبکه‌های عصبی نوعی الگوریتم در بین یادگیری ماشین است.

ادامه خواندن “تفاوت شبکه‌های عصبی (Neural Networks) با یادگیری عمیق (Deep Learning) چیست؟”

تفاوت یادگیری عمیق (Deep Learning) با یادگیری ماشین کلاسیک

همان‌طور که در دوره‌های گذشته مطالعه کردیم، یادگیری عمیق یک زیر حوزه از یادگیری ماشین بوده و یادگیری ماشین نیز خود، زیر حوزه‌ای از هوش مصنوعی است. اما به دلیل عملکرد خوبِ الگوریتم‌های یادگیری عمیق بر روی برخی از مسائل و همچنین دخالتِ کمتر انسان در فرآیند یادگیری، این الگوریتم‌ها به نوعی یه زیر حوزه‌ی جدا را تشکیل داده‌اند.

ادامه خواندن “تفاوت یادگیری عمیق (Deep Learning) با یادگیری ماشین کلاسیک”

رانش یا گذار در داده‌ها (Data Drift)

در زندگی تنها تغییر است که ثابت می‌ماند – change is the only constant in life

آیا محله‌ای که در کودکی در آن‌جا زندگی می‌کردید طی ۲۰ سال گذشته تغییر کرده است؟ پاسخ احتمالاً مثبت خواهد بود. جهان در حال تغییر است و داده‌ها نیز در همین جهان زندگی می‌کنند، پس داده‌ها ممکن است پس از گذشت مدت زمانی تغییر کنند. این تغییرات در داده‌ها منجر به تغییر در الگوها نیز شده و احتمالاً مدل‌هایی که قبلاً بر روی داده‌ها یادگیری یا داده‌کاوی را انجام می‌دادند، با گذشت زمان، دقتی به مراتب پایین‌تر خواهند داشت.

ادامه خواندن “رانش یا گذار در داده‌ها (Data Drift)”

نمونه‌گیری آماری و محاسبه‌ی حداقل تعداد نمونه (Min Sample Size)

فرض کنید می‌خواهیم نظر مردم شهر اهواز را در مورد شهردار این شهر بدانیم. یک پرسشنامه طراحی می‌کنیم و آن را به تعدادی از شهروندان اهوازی داده تا به آن پاسخ دهند. اولین سوالی که احتمالاً ذهن ما را درگیر خود می‌کند، این است که از چه تعداد از شهروندان بخواهیم پرسشنامه را پاسخ دهند؟ پاسخ واضح است، هر چه بیشتر، بهتر. اما هر چقدر تعداد افرادی بیشتری در پاسخ به پرسشنامه درگیر باشند، زمان و هزینه‌ی بیشتری نیز بایستی صرف نظرخواهی از شهروندان شود. پس به دنبال راهی هستیم که حداقل تعداد نمونه‌ی مناسب که نظر آن‌ها بیان‌گر نظر کل مردم شهر باشد را پیدا کنیم. به این کار محاسبه‌ی حداقل تعداد نمونه (minimum sample size) می‌گویند که کاربردهای متعددی در پردازش داده‌ها دارد.

ادامه خواندن “نمونه‌گیری آماری و محاسبه‌ی حداقل تعداد نمونه (Min Sample Size)”

نقشه‌ی‌ راه‌ یادگیری‌ اکوسیستم داده‌کاوی و‌ یادگیری‌ ماشین‌ در‌ پایتون

جهت تبدیل شدن به یک متخصص داده‌کاوی و یادگیری ماشین در زبان برنامه نویسی پایتون، روش های گوناگوی وجود دارد
در این بین شناختِ اکوسیستم و برخی از کتابخانه‌های مهم و روش‌های متداول در حوزه‌ی داده‌کاوی و یادگیری ماشین جهت تبدیل شدن به یک متخصص در این حوزه ضروری است. به همین دلیل در این نوشته قصد داریم با برخی از مشهورترین و پرکاربردترین روش‌ها و کتابخانه‌های موجود با تمرکز بر زبان برنامه‌نویسی پایتون برای شروعِ راه در دنیای داده‌کاوی آشنا شویم. برخی به این نقشه‌ی راه، نقشه‌ی راه تبدیل شدن به دانشمند داده نیز می‌گویند.

ادامه خواندن “نقشه‌ی‌ راه‌ یادگیری‌ اکوسیستم داده‌کاوی و‌ یادگیری‌ ماشین‌ در‌ پایتون”

چگونه با EDA در داده‌ها اکتشاف کنیم؟

در دروس قبلیِ دوره‌ی جاری، با برخی مفاهیم اولیه آماری آشنا شدیم. آمار و احتمالات به ما اجازه می‌دهند که داده‌های حجیم را خلاصه‌سازی کرده و به صورت ساده و قابل درک، در ذهن‌مان جای دهیم. با این کار می‌توانیم داده‌ها را درک کرده و با استفاده از درکِ داده‌ها، به ارزشی که در داده‌ها نهفته شده است دست پیدا کنیم. همچنین اکتشاف و درک داده‌ها، برای پیاده‌سازی و استفاده از الگوریتم‌های یادگیری ماشین نیز کمک می‌کند که در دروه‌های بعدی با آن‌ها بیشتر آشنا خواهیم شد.

ادامه خواندن “چگونه با EDA در داده‌ها اکتشاف کنیم؟”

کشیدگی یا برجستگی (kurtosis) در داده‌ها

در دروس گذشته به معرفی گشتاور اول (میانگین)، گشتاور دوم (واریانس) و گشتاور سوم (چولگی) پرداختیم. در این درس قصد داریم گشتاور چهارم از یک مجموعه‌ی داده را با هم مشاهده کنیم. کشیدگی یا برجستگی (kurtosis) گشتاور چهارم در یک مجموعه‌ی داده است که میزان برجستگی قله را در توزیع یک مجموعه‌ی داده مشخص می‌کند.

ادامه خواندن “کشیدگی یا برجستگی (kurtosis) در داده‌ها”

چولگی (Skewness) در داده‌ها

احتمالاً با توزیع نرمال آشنایی دارید. در مورد این توزیع و توزیع‌های دیگر در این دوره صحبت کرده‌ایم. اگر توزیع داده‌ها به سمت راست یا چپ کشیده شده باشد، می‌گوییم داده‌ها چولگی یا همان skewness دارند.

ادامه خواندن “چولگی (Skewness) در داده‌ها”

چارک (Quartile) و IQR در داده‌ها و کاربردهای آن

برای شناخت دقیق‌تر داده‌ها، روش‌های مختلفی وجود دارد که برخی از آن‌ها را (مانند میانگین، مد، واریانس و…) در جلسات گذشته مورد بحث قرار دادیم. در این جلسه می‌خواهیم به یکی دیگر از روش‌های موثر و کاربردی جهت تحلیل و شناخت بهتر داده‌ها بپردازیم. این روش، چارک نام دارد و یکی از روش‌های متداول در تحلیل و شناخت داده‌هاست.

ادامه خواندن “چارک (Quartile) و IQR در داده‌ها و کاربردهای آن”