دانش داده ها
دانش داده ها
  • 13
  • 6 681
KNN پیاده سازی
در این ویدیو با استفاده از یک مثال در پایتون، الگوریتم کی ان ان پیاده شده است.
داده های استفاده شده را می توانید از آدرس زیر دانلود کنید.
www.kaggle.com/rakeshrau/social-network-ads
همچنین کدهای استفاده شده در ویدیو به قرار زیر است
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
dataset = pd.read_csv('Social_Network_Ads.csv')
dataset.head()
X = dataset.iloc[:, [2, 3]].values
y = dataset.iloc[:, 4].values
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 0)
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)
from sklearn.neighbors import KNeighborsClassifier
classifier = KNeighborsClassifier(n_neighbors = 3, metric = 'manhattan', p = 2) #minkowski, manhattan, euclidean
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(y_test, y_pred)
cm
from matplotlib.colors import ListedColormap
X_set, y_set = X_train, y_train
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.figure(figsize=(15,15))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),
alpha = 0.75, cmap = ListedColormap(('royalblue', 'tomato')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
c = ListedColormap(('blue', 'red'))(i), label = j)
plt.title('K-Nearest Neighbor (Train data)')
plt.xlabel('Age')
plt.ylabel('Predicted Salary')
plt.legend()
plt.show()
from matplotlib.colors import ListedColormap
X_set, y_set = X_test, y_test
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.figure(figsize=(15,15))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),
alpha = 0.75, cmap = ListedColormap(('royalblue', 'tomato')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())
for i, j in enumerate(np.unique(y_set)):
plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],
c = ListedColormap(('blue', 'red'))(i), label = j)
plt.title('K-Nearest Neighbor (Test data)')
plt.xlabel('Age')
plt.ylabel('Predicted Salary')
plt.legend()
plt.show()
error_rate = []
for i in range(1,10):
knn = KNeighborsClassifier(n_neighbors=i)
knn.fit(X_train,y_train)
pred_i = knn.predict(X_test)
error_rate.append(np.mean(pred_i != y_test))
plt.figure(figsize=(10,6))
plt.plot(range(1,10),error_rate,color='blue', linestyle='dashed',
marker='o',markerfacecolor='red', markersize=10)
plt.title('Error Rate vs. K Value')
plt.xlabel('K')
plt.ylabel('Error Rate')
print("Minimum error:-",min(error_rate),"at K =",error_rate.index(min(error_rate)))
มุมมอง: 140

วีดีโอ

K-NN الگوریتم
มุมมอง 1783 ปีที่แล้ว
در این ویدیو الگوریتم "نزدیک ترین کی همسایه" یا کی ان ان معرفی شده و نکات پایه و مهم مرتبط با آن . شرح داده شده است.
الگوریتم خوشه بندی کی با پایتون
มุมมอง 3773 ปีที่แล้ว
در این ویدیو می خواهیم یک مثال از الگوریتم خوشه بندی میانگین کی را با استفاده از پایتون پیاده سازی کنیم. مجموعه ی دیتا از دانشگاه های مختلف داریم و می خواهیم تشخیص دهیم که دانشگاه مورد تست دولتی است یا خصوصی کدها و دیتاست استفاده شده برای این ویدیو را می توانید از لینک زیر دانلود کنید. github.com/MahmoudRamezani/K_Means_Clustering اگر با مفهوم خوشه بندی میانگین کی آشنا نیستید، لطفا ابتدا ویدیوی...
K Means Clustering خوشه‌بندی کی-میانگین
มุมมอง 2343 ปีที่แล้ว
در این ویدیو با مرور یک مثال ساده، چگونگی عملکرد الگوریتم خوشه بندی کی میانگین را توضیح می دهیم. زبان بیان شده در این ویدیو بسیار ساده شده است و از به کار بردن ریاضیات موضوع خودداری شده است. دو مساله مهم در این الگوریتم انتخاب تعداد خوشه ها و چگونگی انتخاب نقاط مرکزی اولیه است که در این ویدیو بررسی شده است.
رگرسیون با بردارهای پشتیبان
มุมมอง 1444 ปีที่แล้ว
در این ویدیو رگرسیون با استفاده از ساپورت وکتور یا بردارهای پشتیبان را با استفاده از پایتون انجام می دهیم. داده های استفاده شده را می توانید از آدرس زیر دانلود کنید www.kaggle.com/akram24/position-salaries#Position_Salaries.csv
مثال رگرسیون چند جمله ای در پایتون
มุมมอง 2514 ปีที่แล้ว
داده های واقعی در اینجا دما و فشار چند نقطه است که به همراه کد پایتون از این لینک قابل دسترسی است www.geeksforgeeks.org/python-implementation-of-polynomial-regression/
رگرسیون چند جمله ای
มุมมอง 2164 ปีที่แล้ว
در این ویدیو رگرسیون چند جمله ای بصورت نظری توضیح داده می شود.
بهینه سازی مدل در رگرسیون خطی
มุมมอง 1484 ปีที่แล้ว
در رگرسیون خطی، می توان یک یا چند ویژگی را حدف کرد و هم چنان رگرسیون با کیفیت خوبی داشت. در ابتدا تمامی ویژگی ها را در رگرسیون خطی استفاده می کنیم و بعد مقدار پی را، که قبلا توضیح داده شده است، برای آن ها می یابیم. سپس بیشینه این مقدار را می یابیم و اگر بیشتر از سطح اهمیت بود، آن ویژگی را حذف می کنیم و دوباره عمل رگرسیون خطی را انجام می دهیم. عمل حذف را تا جایی ادامه می دهیم که هیچ کدام از ویژگ...
رگرسیون خطی با چند ویژگی
มุมมอง 1014 ปีที่แล้ว
در این ویدیو کد نویسی برای رگرسیون خطی با چند ویژگی در پایتون بر روی داده های واقعی مورد بحث و بررسی قرار می گیرد. داده ها از لینک زیر قابل دسترس است www.kaggle.com/farhanmd29/multiple-linear-regression-model برای راحتی شما دوستان عزیز، کد نوشته شده اینجا کپی شده است # -*- coding: utf-8 -*- """ Created on Mon Apr 6 07:18:33 2020 @author: Mahmoud Ramezani mahmoud.ramezani@uia.no """ import numpy...
P-Value (مقدار P)
มุมมอง 2.8K4 ปีที่แล้ว
در این ویدیو توضیح می دهیم که مقدار پی چیست و چه کاربردی در آزمون فرض آماری و رد فرض صفر دارد
پیاده سازی رگرسیون خطی ساده در پایتون
มุมมอง 4184 ปีที่แล้ว
در این ویدیو، به بحث در کد پایتون برای رگرسیون خطی بر روی داده های واقعی می پردازیم. منبع اصلی داده ها در لینک زیر می باشد www.kaggle.com/mayanksrivastava/predict-housing-prices-simple-linear-regression import numpy as np import pandas as pd import matplotlib.pyplot as plt #Importing DataSet dataset = pd.read_csv("kc_house_data.csv") space=dataset['sqft_living'] price=dataset['price'] x = np.ar...
رگرسیون خطی ساده
มุมมอง 1.7K4 ปีที่แล้ว
در این ویدیو، ریاضیات مرتبط با رگرسیون خطی در سطح ساده و قابل فهم برای اکثر مخاطبان با دانش ریاضی مختلف توضیح داده شده است.
نصب و راه اندازی پایتون
มุมมอง 334 ปีที่แล้ว
در این ویدیو، پایتون را با استفاده از توزیع آناکاندا نصب و راه اندازی می کنیم.

ความคิดเห็น

  • @shimagh4232
    @shimagh4232 11 หลายเดือนก่อน

    You are the best Thank you

  • @Amir_py
    @Amir_py ปีที่แล้ว

    nice

  • @ghasemsafar2883
    @ghasemsafar2883 ปีที่แล้ว

    بسیار عالی

  • @hamidehkhademzadeh8672
    @hamidehkhademzadeh8672 ปีที่แล้ว

    برای من که این موضوع خیلی جدید بود و گیج بودم، بسیار عالی بود. مثال بسیار گویا و کامل بود.

  • @walktalklearnenglishthroug7145
    @walktalklearnenglishthroug7145 ปีที่แล้ว

    سلام اگر امکانش هست جای محیط اسپایدر از ژوپیتر استفاده کنید. 99 درصد کدها تو اسپایدر اونقدر ریز افتاده که با ذره بین و تسکوپ هابل هم نمیشه خوندش. در حالی که در محیط ژوپیتر کمی زوم تر نزدیک تر بزرگ تر و واضح تر هست. متاسفانه کد رگرسیون خطی هم اون قدر ریز بود که من با عینک هم نتونستم بخونم. با تشکر از زحماتتون و توضیحات عالی تون

  • @marjannassajpour9948
    @marjannassajpour9948 2 ปีที่แล้ว

    سلام. ممنون از ویدئوی خوبتون. یک سوالی داشتم. شما گفتید که alpha=0.05 یعنی احتمال پذیرش فرض H0 با قدرت 95% انجام می گیرد یا به عبارت دیگر احتمال اینکه نتایج تحقیقات ما شانسی باشد 5% است. پس چرا بعدش گفتین اگر p<alpha باشد یعنی می توان فرض H0 را حذف کرد؟ خوب وقتی p<alpha باشد که طبق توضیحات شما باید درصد پذیرش H0 بالاتر بره. ممنون میشم اگر راهنمایی بفرمایید.🙏

    • @دانشدادهها
      @دانشدادهها 2 ปีที่แล้ว

      در این مثال، اچ صفر یعنی یکسان بودن وضعیت ان استان خاص با کل کشور هرچقدر پی ولیو‌مقدار کمتری باشد یعنی اختلافات استان خاص با امار کل کشور کمتر است و ما میتوانیم به یکسان بودن یا همان فرض اچ صفر اعتقاد راسخ تری داشته باشیم.

  • @amir0hash
    @amir0hash 3 ปีที่แล้ว

    بیشتر ویدیو بزارید❤

  • @annainthemiddle
    @annainthemiddle 3 ปีที่แล้ว

    من خیلی دنبال یه توضیح روون توی بهینه سازی رگرسیون گشتم ! ویدیو شما بهترین توضیح و داشت ...ممنون !!

  • @farzanevafaii5820
    @farzanevafaii5820 3 ปีที่แล้ว

    kheili khoob bood merci

  • @farzanevafaii5820
    @farzanevafaii5820 3 ปีที่แล้ว

    یه سوال نمودار tv بر حسب k همیشه به این شکل درمیاد؟

  • @farzanevafaii5820
    @farzanevafaii5820 3 ปีที่แล้ว

    عالی و مفید مرسی

  • @TheBirdChannelOriginal
    @TheBirdChannelOriginal 3 ปีที่แล้ว

    عالی بود استاد

  • @mehranfaraji4566
    @mehranfaraji4566 3 ปีที่แล้ว

    عالی بود! من این درس رو به آلمانی داشتم هر چی مطالب آلمانی رو می خوندم متوجه نمیشدم

    • @sararas5414
      @sararas5414 2 ปีที่แล้ว

      منم به سویدی داشتم خیلی سخت بود متوجه بشم

  • @arminaahm5050
    @arminaahm5050 3 ปีที่แล้ว

    خیلی ویدیوی مفیدی بود.ممنونم

  • @amir0hash
    @amir0hash 3 ปีที่แล้ว

    عالی خیلی خوب توضیح دادید به کانالتون سر زدم دیدم دیگه ویدیو نمیزارید اگه فقط به امید یوتیوب ویدیو گذاشتید و از تعداد ویو نا امید شدید باید بگم خیلی خوب توضیح میدید و اگه بیشتر ویدیو بزارید حتما بازخورد خیلی بهتری میگیرید

    • @دانشدادهها
      @دانشدادهها 3 ปีที่แล้ว

      ممنون از کامنتتون. متاسفانه وقت نداشتم که ویدیو بگذارم. زیاد مساله لایک یا کامنت یا سابسکرایب و غیره برام مهم نیست

  • @amir0hash
    @amir0hash 3 ปีที่แล้ว

    عالی ولی خب راجب شیب خط چیزی نگفتید که رفتیم یاد گرفتم و کلا گرفتم موضوع چیه❤

  • @Sanaismypookie
    @Sanaismypookie 4 ปีที่แล้ว

    عالی توضیح دادید بسیار مفید بود

  • @reza6130
    @reza6130 4 ปีที่แล้ว

    سلام اموزش هاتون خوبه ولی متاسفانه کدی که نمایش میدهید قابل مشاهده نیست لطفا سایز فونتون را موقعی که کدی را مینویسید یا توضیح میدهید و فیلم ضبط میکنید بزرگ کنید

    • @دانشدادهها
      @دانشدادهها 4 ปีที่แล้ว

      ممنون از کامنت خوبتون بله در این ویدیو فونت خیلی کوچک بود، در ویدیوهای دیگه به این نکته دقت شده البته برای راحتی شما ، لینک دیتاست به همراه کد برای این ویدیو در توضیحات ویدیو قرار داده شده بود که شما می تونید راحت کلیک کنید و از اونجا کپی کنید

    • @reza6130
      @reza6130 4 ปีที่แล้ว

      @@دانشدادهها بله دیدم . یه پیشنهاد دیگه اینکه کدها را خط به خط توضیح بدهید . پیشنهاد دوم اینکه تئوری و عملی را بهم دیگه آموزش بدهید و همچنین سعی کنید بیشتر پروژه کار کنید مثلا رگرسیون را درس دادید چندین پروژه از مبتدی تا پیشرفته قدم به قدم آموزش بدهید یا حل کنید تا این مفاهیم شب یا بشن بعدش برید سراغ قسمت های دیگه . نکته ی خیلی مهم اینکه تیترهایی که در سایت kaggle وجود دارد عموما تمیز هستند ولی دیتا های در دتزاط واقعی تمیز نیستن پیشنهاد میکنم اول یک دیتا ی کثیف را بردارید و اون را تمیز کنید تا دوستان در مورد تمیز کردن داده ها اطلاعات بیشتری کسب کنن