توزیع یکنواخت (Uniform Distribution) و کاربردهای آن

یکی از توزیع‌های ساده و در عین حال کاربردی در آمار و احتمالات، توزیع یکنواخت یا همان uniform distribution است. در این توزیع، احتمالِ وقوع هر کدام از رویدادها، شبیه به هم و برابر یک مقدارِ عددیِ خاص در بازه‌ای مشخص است.

ادامه خواندن “توزیع یکنواخت (Uniform Distribution) و کاربردهای آن”

چگونه بفهمیم داده‌های ما از توزیع نرمال پیروی می‌کند یا خیر؟

در درس گذشته، با داده‌هایی که از توزیع نرمال استفاده می‌کردند آشنا شدیم و یاد گرفتیم که چگونه می‌توان از این توزیع، برای پیش‌بینی و پاسخ به سوالات مختلف در یک کسب‌و‌کار استفاده کرد. همچنین برخی از الگوریتم‌های داده‌کاوی، فرضشان این است که داده‌ها از یک توزیع نرمال پیروی می‌کنند. سوال این‌جاست که چگونه بفهمیم داده‌های ما از توزیع نرمال پیروی می‌کنند یا خیر؟ پاسخ به این سوال را در این درس با هم خواهیم دید.

ادامه خواندن “چگونه بفهمیم داده‌های ما از توزیع نرمال پیروی می‌کند یا خیر؟”

توزیع نرمال (Normal Distribution) یا توزیع گوسی (Gaussian Distribution)

در درس قبلی با مقدماتی در مورد احتمالات و توابع توزیع شده آشنا شدید. در این درس به یکی از توزیع‌های معروف به اسم توزیع نرمال می‌رسیم و کاربردهای مختلفِ آن را با یکدیگر مرور می‌کنیم. توزیع نرمال یا همان توزیع گوسی، در بسیاری از داده‌ها، مشاهده می‌شود. در واقع بسیاری از فرآیند‌های این جهان، داده‌هایی بر اساس توزیع نرمال دارند.

ادامه خواندن “توزیع نرمال (Normal Distribution) یا توزیع گوسی (Gaussian Distribution)”

متغیر تصادفی (Random Variable)، تابع توزیع احتمال (PDF) و تابع توزیع تجمعی (CDF)

فرض کنید یک سکه را بالا می‌اندازید. به احتمال ۵۰ درصد این سکه رو (head) می‌آید و به احتمال ۵۰ درصد این سکه پشت (tail). اگر این احتمال را با x نشان دهیم به این x یک متغیر تصادفی می‌گویند. متغیر (variable) به خاطر این‌که می‌تواند تغییر کند و تصادفی (random) به خاطر این‌که مبتنی بر شانس و تصادف است. مثال دیگر از متغیر تصادفی، می‌تواند قدِ افراد باشد. برای مثال فرض کنید متغیر x قدِ افرادِ مختلف در یک جامعه است. برای مثال شما یک نفر را از میان جامعه انتخاب می‌کنید و می‌توانید بر اساس احتمالات، مثلاً حدس بزنید که به احتمال ۲۰ درصد، قدِ این شخص بین ۱۷۰ تا ۱۸۰ سانتی‌متر است. این حالتِ دوم کمی پیچیده‌تر از مثالِ سکه شد ولی به هر حال به این متغیر هم، یک متغیر تصادفی می‌گویند.

ادامه خواندن “متغیر تصادفی (Random Variable)، تابع توزیع احتمال (PDF) و تابع توزیع تجمعی (CDF)”

جستجوی محلی تکراری (Iterated Local Search) در بهینه‌سازی

جستجوی محلی یا همان Local Search یکی از ساده‌ترین الگوریتم‌های هوش‌مصنوعی در حوزه‌ی بهینه‌سازی است. در درس فعلی می‌خواهیم یک بهینه‌سازیِ ارائه شده برای این الگوریتم به اسم جستجوی محلیِ تکراری را مورد بررسی قرار دهیم تا بتوانیم یکی از نقاط ضعف الگوریتم جستجوی محلی را حذف کنیم.

ادامه خواندن “جستجوی محلی تکراری (Iterated Local Search) در بهینه‌سازی”

بهینه‌سازی سراسری (Global Optimization) و تفاوت آن با کاهش گرادیان (Gradient Descent)

از آن‌جایی که امکان دارد برخی از دانشجویان کمی در درک مفاهیمِ بهینه‌سازی و کارایی آن‌ها دچار سردرگمی شده باشند، در این درس می‌خواهیم کمی به این مباحث بپردازیم تا مدل ذهنی دانشجویان عزیز کمی بهتر با مفاهیم اصلی و بنیادین این حوزه آشنا شود.

ادامه خواندن “بهینه‌سازی سراسری (Global Optimization) و تفاوت آن با کاهش گرادیان (Gradient Descent)”

الگوریتم‌های چند شروعی (Multi Start) در مسائل بهینه‌سازی

با مطالعه‌ی دورس گذشته از دوره‌ی جاری، مشاهده کردیم که الگوریتم‌های فراابتکاری برای این ساخته شده‌اند که بدون جستجوی همه‌ی حالات، بتوانند به یک حالت بهینه دست پیدا کنند.

ادامه خواندن “الگوریتم‌های چند شروعی (Multi Start) در مسائل بهینه‌سازی”

الگوریتم ممتیک (Memetic) بر اساس الگوهای رفتاری

الگوریتم ممتیک یا همان Memetic Algorithm را نمی‌توان یک الگوریتم ثابث فرض کنید. در واقع الگوریتم‌های ممتیک را می‌توان از دسته‌ی الگوریتم‌ها داسنت که به نوعی بهبود یافته‌ی الگوریتم ژنتیک (Genetic Algorithm) هستند. در این درس ما به یکی از معروف‌ترین این الگوریتم‌ها اشاره می‌کنیم. این الگوریتم در واقع ترکیبی از الگوریتم ژنتیک و الگوریتم جستجوی تپه‌نوردی است که در دروس گذشته‌ی دوره‌ی جاری به این دو الگوریتم پرداختیم.

ادامه خواندن “الگوریتم ممتیک (Memetic) بر اساس الگوهای رفتاری”

جستجوی محلی (Local Search) و الگوریتم تپه‌نوردی (Hill Climbing)

این درس به نوعی تکرار درس بهینه محلی و بهینه سراسری است و برای تاکید و درک بهتر با عنوانی دیگر و توضیحاتی دیگر در این‌جا تکرار شده است. شاید نتوان این دسته از الگوریتم‌ها را به صورت جداگانه، یک الگوریتم فراابتکاری (Meta heuristic) قوی دانست. اما شناخت این الگوریتم‌ها می‌تواند به وسعت دید در درکِ بحثِ بهینه‌سازی کمک کرده و پایه‌ی الگوریتم‌های بعدی و پیشرفته‌تر باشد.

ادامه خواندن “جستجوی محلی (Local Search) و الگوریتم تپه‌نوردی (Hill Climbing)”

الگوریتم بهینه‌سازی کلونی مورچگان (Ant Colony Optimization)

مورچه‌ها در یک حرکتِ جمعی قادر هستند مسیرِ بهینه از کلونیِ خود به سمت غذا را به دست آورند. آن‌ها بدون داشتن بینایی می‌توانند با استفاده از قدرتِ اجتماعِ خود این مسیر را پیدا کنند. دانشمندان با تحقیق و بررسیِ نحوه‌ی کار مورچه‌ها، توانستند الگوریتمی را شناسایی کنند که می‌تواند با تقریب بسیاری خوبی، چیزی نزدیک به بهینه‌ی سراسری را در یک مسئله‌ی بهینه‌سازی بیابد.

ادامه خواندن “الگوریتم بهینه‌سازی کلونی مورچگان (Ant Colony Optimization)”