دوره شبکه عصبی کانولوشنی 3 -آشنایی با لایه های MaxPooling و AveragePooling، پارامترها و پیاده سازی
ฝัง
- เผยแพร่เมื่อ 11 ธ.ค. 2023
- دوره آموزش شبکه عصبی کانولوشنی - convolutional neural networks (CNN)
جلسه سوم- آشنایی با دو لایه (layers) بسیار مهم MaxPolling2D و AveragePooling2D، پارامترهای آنها، مزیت استفاده و تفاوت آنها و در نهایت پیاده سازی و استفاده از این لایه ها
.
در این جلسه با هم ابتدا با دو لایه بسیار مهم زیر و پارامترهاشون آشنا میشیم:
1. لایه پولینگ ماکزیمم (MaxPooling2D): چرا این لایه مهم هست و چه پارامترهایی دارد؟
2. لایه پولینگ میانیگن (AveragePooling2D): تفاوت آن با لایه ماکزیمم چیست و چرا باید از آن استفاده کرد؟
پس از آشنایی با این لایه ها، آنها را به شبکه جلسه قبل اضافه کرده و تاثیر آن را بررسی میکنیم. این کار با استفاده از کتابخانه های کراس (Keras) و تنسورفلو (Tensorflow) انجام و شبکه ساخته شده را روی دیتاست اعداد mnist آموزش (train) میدهیم. در نهایت دقت الگوریتم و نحوه عملکرد اون رو با دیپ لرنینگ معمولی مقایسه میکنیم.
.
لینک جلسات قبل:
جلسه اول: آشنایی با CNN، نحوه کار و مزایای آن • دوره شبکه عصبی کانولو...
جلسه دوم - آشنایی با دو لایه (layers) بسیار مهم Conv2D و Flatten و ساختار کلی شبکه های CNN • دوره شبکه عصبی کانول...
.
پیشنهاد میکنم قبل از شروع دوره، حتما به ترتیب دوره های زیر رو مشاهده کنین تا پیش زمینه لازم رو داشته باشید:
دوره کامل یادگیری ماشین از مقدماتی تا پیشرفته • دوره کامل ماشین لرنینگ...
3 پروژه کاملا کاربردی و مبتنی بر واقعیت برای تمرین بیشتر یادگیری ماشین • 3 پروژه کاملا کاربردی...
همچنین زبان برنامه نویسی مورد استفاده در دوره، زبان پایتون (Python) هست و فرض براین هست که شما با این زبان برنامه نویسی آشنا هستید. ولی اگر اینطور نیست یا حس می کنید نیاز به مرور مفاهیم دارید، پیشنهاد میکنم قبل از این دوره، دوره کامل برنامه نویسی به زبان پایتون و تمرینات مربوط به اون رو مشاهده کنید. لینک این جلسه:
دوره کامل پایتون از مقدماتی تا پیشرفته • دوره کامل آموزش برنام...
پنج پروژه با استفاده از پایتون - از سطح مقدماتی تا پیشرفته • پنج پروژه با استفاده ا...
.
جلسات مرتبط:
یادگیری عمیق (Deep Learning) چیه و چطور دنیای یادگیری ماشین رو متحول کرده؟ • دوره یادگیری عمیق 1 -...
هوش مصنوعی، ماشین لرنینگ و دیپ لرنینگ، آشنایی، تفاوتها و کاربردهای آنها • آموزش یادگیری ماشین 1 ...
انواع روشهای ماشین لرنینگ (تفاوت و کاربردهای یادگیری بی نظارت، با نظارت و تقویتی) • یادگیری ماشین 2 - انوا...
موازنه بایاس و واریانس یعنی چی؟ (دلیل overfit یا underfit شدن مدلها چیه؟) • آموزش یادگیری ماشین 1...
آشنایی با کتابخانه matplotlib و دستورات مهم آن در 10 دقیقه • کتابخانه های پرکاربر...
آشنایی با کتابخانه Pandas و دستورات مهم آن در 20 دقیقه • کتابخانه های پرکاربر...
آشنایی با کتابخانه numpy و دستورات مهم آن در 20 دقیقه • کتابخانه های پرکاربرد...
.
ممنون میشم اگر ویدیوها آموزنده هست اونها رو لایک کنید، توی کانالمون سابسکرایب کنید و اونها رو با دیگران هم به اشتراک بذارین.
لطفا از دانلود ویدیوها اجتناب کنین، برای این ویدیوها زحمت زیادی کشیده شده (من راضی نیستم که اونها رو دانلود کنید) و به همین دلیل تنها راه استفاده رایگان، تماشای آنلاین هست.
لینک کانال تلگرام t.me/techwithhasanabbasi
اگر برای ورود به دنیای برنامه نویسی و آموزش آن به صورت خودآموز نیاز به راهنمایی و مشاوره دارید، میتونین از طریق لینک زیر جهت رزرو زمان مناسب اقدام کنید تا با هم در موردش صحبت کنیم و یه شروع قدرتمند داشته باشین.
calendly.com/techwithhasanabb...
خیلی کاربردی شد و انگیزه کار بر روی پروژه دنیای واقعی حوزه پزشکی شد👌
خواهش میکنم
خوشحالم که از آموزشها راضی هستین
جهت تهیه این آموزشها زحمت زیادی کشیده شده، ممنون میشم اگر حس میکنین مفید هستن با دوستانتون به اشتراک بذارین
Very good explanation. Thanks alot 🙂
Happy to help!
perfect, thank you for the comprehensive explanation
Glad it was helpful!
این یکی خیلی خوب بود جوابی مثل مال شما حتی یه ذره هم بهتر گرفتم
البته باین خاطر که عین شما کدها رو نوشتم وگرنه الان که اومدم که مروری بکنم که بفهمم چی به چیه این دستگیرم نشد که چرا 3 تا Conv2D بوجود آوردیم!
و هر دفعه یک MaxPool2D یا AveragePooling2D گذاشتیم پشت سرش
چجوری اینکه چندتا Conv2D باشه رو تصمیم میگیریم و چجوری تصمیم میگیریم که از MaxPool2D استفاده کنیم یا از AveragePooling2D؟
مبنای این تعدادها چیه؟
خیلی سوال خوبی هست، خود تعیین تعداد لایه ها یک مسئله خیلی مهم هست که معمولا با تجربه و سعی و خطا بدست میاد. اینجا من فقط صرفا هدفم استفاده از اونها بود و ممکنه شما با ۲ تا جواب بهتری از ۳ تا بگیرین مثلا
عالی بود، ممنون 💙
خواهش میکنم، خیلی خوشحالم که از آموزشها راضی هستین
جهت تهیه این آموزشها زحمت زیادی کشیده شده، به همین خاطر ممنون میشم اگر از آموزشها راضی هستین، با دوستانتون به اشتراک بذارین
می شه در مورد generator adverserial nural network هم ویدیو بسازید
سلام دوست عزیز
حتما در ادامه اینکار رو خواهیم کرد
آقای دکترسپاس بسیار فراوان بابت آموزش های عالی تان،
یک سوال
استاد این خطا مربوط به چی هست:
logits and labels must have the same first dimension, got logits shape [256,10] and labels shape [200704]
[[{{node sparse_categorical_crossentropy/SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits}}]] [Op:__inference_train_function_5393]
Epoch 1/10
---------------------------------------------------------------------------
InvalidArgumentError Traceback (most recent call last)
in ()
----> 1 hist = model.fit(x_train, y_train, epochs=10, batch_size=256, validation_data=(x_test, y_test))
1 frames
/usr/local/lib/python3.10/dist-packages/tensorflow/python/eager/execute.py in quick_execute(op_name, num_outputs, inputs, attrs, ctx, name)
51 try:
52 ctx.ensure_initialized()
---> 53 tensors = pywrap_tfe.TFE_Py_Execute(ctx._handle, device_name, op_name,
54 inputs, attrs, num_outputs)
55 except core._NotOkStatusException as e:
InvalidArgumentError: Graph execution error:
Detected at node sparse_categorical_crossentropy/SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits defined at (most recent call last):
File "/usr/lib/python3.10/runpy.py", line 196, in _run_module_as_main
File "/usr/lib/python3.10/runpy.py", line 86, in _run_code
.
logits and labels must have the same first dimension, got logits shape [256,10] and labels shape [200704]
[[{{node sparse_categorical_crossentropy/SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits}}]] [Op:__inference_train_function_5393]
سایز داده ها و لیبلها با هم نمیخونه
آقای عباسی سری جلسات شبکه CNNچند جلسه خواهد شد؟
سلام دوست عزیز
این دوره 6 جلسه خواهد بود که جلسات پایانی در حال ضبط هست
ممنون آقای عباسی@@TechWithHasanAbbasi
so amazing
Happy to hear it's helpful!