TWITTER SENTIMENT ANALYSIS (NLP) | Machine Learning Projects | GeeksforGeeks

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ม.ค. 2025

ความคิดเห็น • 148

  • @GeeksforGeeksVideos
    @GeeksforGeeksVideos  ปีที่แล้ว +7

    Related Article: www.geeksforgeeks.org/twitter-sentiment-analysis-using-python/

  • @shlokkumar6257
    @shlokkumar6257 9 หลายเดือนก่อน +6

    siddharthan sir, congratuations for joining geeks for geeks.

  • @alexramos587
    @alexramos587 ปีที่แล้ว +22

    Great content from Siddhardhan.

    • @Saniya123ok
      @Saniya123ok 7 หลายเดือนก่อน

      you got it bro!

  • @Sagardeep_Das
    @Sagardeep_Das 4 หลายเดือนก่อน +1

    Thank you so much gfg. I even applied neutral tweets in doing this sentiment analysis. I will try to do this for other social media datasets.

  • @Chaitanya_Sannidhi
    @Chaitanya_Sannidhi 8 วันที่ผ่านมา

    Thats a Very Great Explanation sir , Hope much more content like this from GFG and you too sir..

  • @bharathikathiresan
    @bharathikathiresan 10 หลายเดือนก่อน +4

    Very Clearly explanation

  • @codehub8326
    @codehub8326 ปีที่แล้ว +8

    Pls make a video on career recommendation after secondary school using ML

  • @janaraj295
    @janaraj295 10 หลายเดือนก่อน +5

    Nice explanation, completed the project👍

    • @rasdhdg
      @rasdhdg 10 หลายเดือนก่อน

      Hi brother. Can you please provide me the code . I will pay you the amount you demand . 🙏🙏🙏🙏🙏🙏

    • @1anu_ra-dha.
      @1anu_ra-dha. 10 หลายเดือนก่อน

      Have you run this project??

    • @janaraj295
      @janaraj295 10 หลายเดือนก่อน

      @@1anu_ra-dha. Yes

    • @janaraj295
      @janaraj295 10 หลายเดือนก่อน

      @@1anu_ra-dha. Yes

    • @reema9088
      @reema9088 8 หลายเดือนก่อน

      Have U run the project ?

  • @janmjaysingh2719
    @janmjaysingh2719 9 หลายเดือนก่อน +6

    How can we use our own tweet or comment to test the machine. As for now we are using index as median. Tell me if i can actually write my own sentence and check whether its negative or positive?😢

    • @ymmich2143
      @ymmich2143 5 หลายเดือนก่อน

      I have the same doubt. Please let me know as well if you have found the answer.

    • @ChithraiSelvan-d8y
      @ChithraiSelvan-d8y 4 หลายเดือนก่อน

      ​@@ymmich2143 I aslo having same doubts

    • @ChithraiSelvan-d8y
      @ChithraiSelvan-d8y 4 หลายเดือนก่อน

      I

    • @DeionDz
      @DeionDz 2 หลายเดือนก่อน

      Convert your tweet into a vector. using the process you showed and then follow the same predication pattern.

  • @sunshineandrainbow5453
    @sunshineandrainbow5453 6 หลายเดือนก่อน +2

    Beautifully explained!!! Thanks a lot sir 🙏🏻🙏🏻🙏🏻
    PS : How can we use it to make a project which will take input from the user

  • @PrinceKumar-xc3vr
    @PrinceKumar-xc3vr หลายเดือนก่อน

    loved this explaination

  • @crickethighlights7185
    @crickethighlights7185 10 หลายเดือนก่อน +1

    Thanks for the video

  • @ravindarmadishetty736
    @ravindarmadishetty736 ปีที่แล้ว +2

    Nice explanation

  • @shikhar8876
    @shikhar8876 18 วันที่ผ่านมา +2

    can anyone help,
    while performing the stemming operation, it's taking a lot of time, i know it takes as he mentioned in the video that it takes 50+min, but why my cpu utilization is only 10%. I mean why vs code isnt utilizing the CPU to 100% and executing the code faster ???

    • @pushpitmandloi296
      @pushpitmandloi296 15 วันที่ผ่านมา

      In jupyter notebook I waited for almost 3 hours

  • @shikamaru271
    @shikamaru271 21 วันที่ผ่านมา

    I just completed this project. by the way, how did you not get null values in your stemmed_content ? I was unable to set up my vectoriser, turned out, stemmed_content had 495 null values. I removed them and it worked fine afterwards

  • @saurabhkushwah5388
    @saurabhkushwah5388 5 หลายเดือนก่อน

    Greate Exeplaination sir.

  • @eedemallika505
    @eedemallika505 7 หลายเดือนก่อน

    Great Explanation

  • @tarandeep6861
    @tarandeep6861 6 หลายเดือนก่อน

    Great eplanation
    thanks a lot

  • @sumitsamanta7416
    @sumitsamanta7416 3 หลายเดือนก่อน

    u said abt overfitting and we can clearly see the model is overfitted so can we improve the accuracy and make the model little underfit ?

  • @rachanikhilrnr
    @rachanikhilrnr ปีที่แล้ว +5

    But what if I want to test on new data

  • @mdafroj9846
    @mdafroj9846 11 หลายเดือนก่อน +2

    Hi can help me i got error at the line 20 of code twitter data['stemmed_content']=Twitter_data['text'].apply(stemming)

    • @srijantiwari9232
      @srijantiwari9232 11 หลายเดือนก่อน

      Solve hua?

    • @raunakkakkar1231
      @raunakkakkar1231 9 หลายเดือนก่อน

      it should be twitter_data not Twitter_data (no capital T)

    • @suyashsawant8928
      @suyashsawant8928 9 หลายเดือนก่อน

      @@raunakkakkar1231 Hi can you help me too I had an error at the same line twitter_data['stemmed_content'] = twitter_data['text'].apply(stemming) and the error was NameError : name 'twitter_data' is not defined

    • @bindhuaddepalli580
      @bindhuaddepalli580 5 หลายเดือนก่อน

      @@suyashsawant8928 coz there is no file named twitter data with you

  •  9 หลายเดือนก่อน +1

    I have implemented the above code it took some time to stem then I implemented another code with lemmatization it was fast. In general, Lemmas are more computationally expensive than Stemming, when I checked this code again I found a potential change - for each loop, it's calling StopWords instead you can define it once within some variable and call that variable inside the loop. After making these changes it took me 2 mins for stemming using the above code.

    • @soukarya_ghosh6612
      @soukarya_ghosh6612 9 หลายเดือนก่อน

      can u give the dataset link ?

    •  9 หลายเดือนก่อน

      @@soukarya_ghosh6612 You can find it in video itself at 3:30

    • @thegeeks2002
      @thegeeks2002 8 หลายเดือนก่อน

      can you please tell me how's this part of code after changes you mentioned?

    •  8 หลายเดือนก่อน

      @@thegeeks2002 Before it took around 1 hour I guess after these changes it took 2 mins, However I ended up using Lematization even it took 2mins. But this tutorial is really helpful for me to get started with this usecase and then explore more advanced concepts for it.

    • @shreyanshgupta1587
      @shreyanshgupta1587 8 หลายเดือนก่อน

      do you have the code with you rn??

  • @growingfire
    @growingfire 6 หลายเดือนก่อน

    Siddharthan Sir

  • @belkhiriasadok7245
    @belkhiriasadok7245 หลายเดือนก่อน +1

    Could you share the Colab link?

  • @masalmansalman3612
    @masalmansalman3612 หลายเดือนก่อน

    If we want to predict the stock market moment with Twitter comments or message , how can we do this

  • @AbhimanyuKaushik-i5p
    @AbhimanyuKaushik-i5p 5 หลายเดือนก่อน

    stemming would remove the comma as well as the apostrophe but we need to keep the apostrophe . so what should be the re for that

  • @belkhiriasadok7245
    @belkhiriasadok7245 หลายเดือนก่อน +1

    can you provide the link to the colab please

  • @rahulmahatha9086
    @rahulmahatha9086 ปีที่แล้ว +3

    link to the notebook please....

  • @prasadmahadik3514
    @prasadmahadik3514 5 หลายเดือนก่อน

    Hi Sir, Can we split data in X customer_Id with Text ? So we can get which customers said negative reviews ?

  • @Gharwali_Baatein
    @Gharwali_Baatein ปีที่แล้ว +2

    sir i have tried the same dataset with same code but the accuracy score is much different then yours ,its causing an overfitting condition ,how it can be improved

  • @sizzrizz6074
    @sizzrizz6074 10 หลายเดือนก่อน +1

    Can anyone help my prog shows
    X_test not defined when running the pickle file in another window . What to do

    • @UchihaItachiKonohagakure
      @UchihaItachiKonohagakure 7 หลายเดือนก่อน

      check that line of code where you split the dataset into training and testing sets. where the random state = 2 was mentioned.
      Also check whether you executed that snippet or not. that could also be an error.

  • @syedasabeeh-g4j
    @syedasabeeh-g4j 10 หลายเดือนก่อน +1

    very useful. but my code does not showing stemmed_content and it's taking only 2 to 3 mins to run instead of 55 mins. what can be the error sir

    • @sizzrizz6074
      @sizzrizz6074 10 หลายเดือนก่อน +1

      You didn't add blank space between the quotation marks at the .join statement.

    • @tejiriamrasa3258
      @tejiriamrasa3258 9 หลายเดือนก่อน

      ​@@sizzrizz6074 that isn't the cause of the problem.

  • @ritvikraj8384
    @ritvikraj8384 8 หลายเดือนก่อน +1

    Can you send the PPT file which you showed in the beginning of the video?

  • @belkhiriasadok7245
    @belkhiriasadok7245 หลายเดือนก่อน

    Where can I find the complete code for this?

  • @GooSoft
    @GooSoft 5 หลายเดือนก่อน

    Which library is used like tool?

  • @subratbhattarai3518
    @subratbhattarai3518 8 หลายเดือนก่อน

    Is there a way to convert the vectorized numbers to string again?

  • @saicharanchepuri8145
    @saicharanchepuri8145 6 หลายเดือนก่อน

    Just a suggestion it would have been simpler if you directly utilized the methods as they are from the libraries rather than storing each method in a different variable. It kind of makes the code look heavy and also confusing and difficult to follow. Thanks for the tutorial.

  • @gaganm6639
    @gaganm6639 ปีที่แล้ว +7

    How can we increase the accuracy of the model

    • @shaikhahsan100
      @shaikhahsan100 9 หลายเดือนก่อน +1

      try different algorithms, maybe some other algorithm works better and gives a better accuracy. Also, if the dataset is not vast like the one on the video try gathering atleast 1000-10000 of data and train again to check the accuracy.

    • @albingeorgekurian4396
      @albingeorgekurian4396 9 หลายเดือนก่อน

      @@shaikhahsan100 have any other suggesstion

  • @karishmarajput1871
    @karishmarajput1871 6 หลายเดือนก่อน

    how to add kaggle.json Path in Jupyter notebook ............please reply?

  • @FarrelHaryomukti
    @FarrelHaryomukti 4 หลายเดือนก่อน

    thanks.

  • @T1s_kashyap
    @T1s_kashyap 5 หลายเดือนก่อน

    ho siddharthan sir 😁😁😁😁😁😁😁😁

  • @charchitsharma3535
    @charchitsharma3535 3 หลายเดือนก่อน

    can anybody tell where is the collab file link

  • @elbechir35
    @elbechir35 ปีที่แล้ว +1

    Sır! If we don't have the target column in our Twitter dataset, what should we do?

    • @albingeorgekurian4396
      @albingeorgekurian4396 9 หลายเดือนก่อน

      yes we do..check whether u have selected sentiment140 from kaggle

  • @divyaagarwal3563
    @divyaagarwal3563 ปีที่แล้ว

    At the time of fetching api from kaggle
    I am getting a key error: content length
    Pls help

  • @chandrachandra-hr8yu
    @chandrachandra-hr8yu หลายเดือนก่อน

    SIR, HOW TO GET YOUR GOOGLE COLAB LINK FOR YOUR CODE

  • @Revathi-hb9rs
    @Revathi-hb9rs 5 หลายเดือนก่อน

    sir,please provide the complete end to end neural network style transfer projects with web application

  • @AbhimanyuKaushik-i5p
    @AbhimanyuKaushik-i5p 5 หลายเดือนก่อน

    what is up and down sampling

  • @jananeejananee2786
    @jananeejananee2786 ปีที่แล้ว

    siddharthan is here(as instructor)

  • @yhd0808
    @yhd0808 ปีที่แล้ว

    1:08:00

  • @sohailaborhamy7855
    @sohailaborhamy7855 8 หลายเดือนก่อน

    The output of counts_value not the same your output, why this ?

  • @rishikeshnanaware
    @rishikeshnanaware 11 หลายเดือนก่อน

    X has 179715 features, but LogisticRegression is expecting 460873 features as input.
    I am getting this error while executing predict function on test data

    • @archana2467
      @archana2467 9 หลายเดือนก่อน

      How you solved this error

    • @rishikeshnanaware
      @rishikeshnanaware 9 หลายเดือนก่อน

      @@archana2467 for training data use fit_transform function and for testing data use transform() function

    • @rishikeshnanaware
      @rishikeshnanaware 8 หลายเดือนก่อน

      @@archana2467 use fit_transfer function for training data and transfer function for testing data instead of using fit_transfer for testing data

    • @rishikeshnanaware
      @rishikeshnanaware 8 หลายเดือนก่อน

      ​@@archana2467 use fit_transform function for training data and transfer function for testing data instead of using fit_transform for testing data

    • @vildanbozkurt2762
      @vildanbozkurt2762 7 หลายเดือนก่อน

      @@archana2467 ı had the same mistake. random_state should be equal to 2 or yo should check taht you have written the X_test equation correctly in the "converting the textual data to numerical data" section . I mean ; X_test = vectorizer.transform(X_test)

  • @anuragpaul453
    @anuragpaul453 2 หลายเดือนก่อน +1

    sir, there are other options to make this step faster. it took me only 5 mins to perform stemming. Here's the code:
    import pandas as pd
    import re
    from nltk.corpus import stopwords
    from nltk.stem.porter import PorterStemmer
    from concurrent.futures import ThreadPoolExecutor
    from tqdm import tqdm
    # Initialize stopwords
    stop_words = set(stopwords.words('english'))
    def stemming(content):
    try:
    port_stem = PorterStemmer() # Instantiate inside the function
    stemmed_content = re.sub('[^a-zA-Z]', ' ', content).lower()
    return ' '.join(port_stem.stem(word) for word in stemmed_content.split() if word not in stop_words)
    except Exception as e:
    print(f"Error processing content: {content}. Error: {e}")
    return "" # Return an empty string on error
    def process_data(df):
    with ThreadPoolExecutor() as executor:
    return list(tqdm(executor.map(stemming, df['text']), total=len(df)))
    # Process the DataFrame in chunks
    chunk_size = 50000 # Adjust based on your memory capacity
    num_chunks = len(twitter_data) // chunk_size + 1
    stemmed_contents = []
    for i in tqdm(range(num_chunks)):
    start = i * chunk_size
    end = min((i + 1) * chunk_size, len(twitter_data))
    chunk = twitter_data.iloc[start:end]
    stemmed_chunk = process_data(chunk)
    stemmed_contents.extend(stemmed_chunk)
    # Add the stemmed content back to the DataFrame
    twitter_data['stemmed_content'] = stemmed_contents

  • @AbhimanyuKaushik-i5p
    @AbhimanyuKaushik-i5p 5 หลายเดือนก่อน

    what to do when null values are found in dataset

  • @jyotsnakaruturi7746
    @jyotsnakaruturi7746 หลายเดือนก่อน

    where is link to colab file

  • @SWAMINATHANS-id4so
    @SWAMINATHANS-id4so 7 หลายเดือนก่อน

    sir how to get this project coalab sheet. you told me that link in description.i searched it,i did not get

    • @deepikaravi9292
      @deepikaravi9292 6 หลายเดือนก่อน

      Go and search for google colab in google and then click on new notebook .so u will get it

  • @shivanshmaurya8520
    @shivanshmaurya8520 3 หลายเดือนก่อน

    Twitter API is not free, what to do now ??

  • @manjukumari3313
    @manjukumari3313 7 หลายเดือนก่อน

    please share the collab notebook link

  • @ssenthilnathan3
    @ssenthilnathan3 ปีที่แล้ว +5

    Is this Siddharth? That guy who has a telegram channel named Machine Learning and also a youtube channel?
    If so! Great to see you buddy❤..

  • @AbhishekKumar-wc4nx
    @AbhishekKumar-wc4nx 9 หลายเดือนก่อน

    can anyone tell me where we can find the all code in this is project

    • @GeeksforGeeksVideos
      @GeeksforGeeksVideos  9 หลายเดือนก่อน

      You can find everything in this article : www.geeksforgeeks.org/twitter-sentiment-analysis-using-python/

  • @valac2085
    @valac2085 9 หลายเดือนก่อน

    the way he saved model was not enough, you have to lay a data pipeline for new data and also save the vectorizer

  • @yhd0808
    @yhd0808 ปีที่แล้ว

    51:27

  • @garima2158
    @garima2158 9 หลายเดือนก่อน

    stemming process is taking too long time to execute, due to which i'm not able to apply modelling

    • @albingeorgekurian4396
      @albingeorgekurian4396 9 หลายเดือนก่อน

      we need to optimize the stemming function. like in list comprehension we are using stopwords.words('english') instead of that create a variable outside the function and use that variable instead..
      here I guess it will optimize the code than the previous version

  • @1anu_ra-dha.
    @1anu_ra-dha. 10 หลายเดือนก่อน

    How to deploy this model on web??
    Can anybody please help....?? 🙏🙏

    • @1anu_ra-dha.
      @1anu_ra-dha. 10 หลายเดือนก่อน

      @cll1670 thanks for help

    • @albingeorgekurian4396
      @albingeorgekurian4396 9 หลายเดือนก่อน

      what about creating an interface This is just a suggestion if u have any other ideas please share them.

  • @navneet-dubey75
    @navneet-dubey75 3 หลายเดือนก่อน

    Here from Seasons of AI 2024👋🏼

  • @ashwinipatil5733
    @ashwinipatil5733 7 หลายเดือนก่อน

    hello I am making web app on it using flask but i am facing this error(tweepy.errors.Unauthorized: 401 Unauthorized 89 - Invalid or expired token.) because i have not basic account so can you help me to solve error .please reply

  • @SWAMINATHANS-id4so
    @SWAMINATHANS-id4so 7 หลายเดือนก่อน

    sir how to get colab lin

  • @SWAMINATHANS-id4so
    @SWAMINATHANS-id4so 7 หลายเดือนก่อน

    how to get colab link

  • @letseducate123
    @letseducate123 4 หลายเดือนก่อน +1

    Where is the code??

  • @ak47gamer810
    @ak47gamer810 11 หลายเดือนก่อน

    28:14

  • @monemtajbid3363
    @monemtajbid3363 3 หลายเดือนก่อน

    can you plz give me all souce code of this project

  • @chahatverma4085
    @chahatverma4085 9 หลายเดือนก่อน

    22.25 code shows error. can anyone help?

  • @rahulmahatha9086
    @rahulmahatha9086 ปีที่แล้ว +1

    can you provide the source code please

  • @Ogg_skimmer
    @Ogg_skimmer 16 วันที่ผ่านมา

    What if you your true value you got=0
    But model prediction is 1

  • @mganesh8473
    @mganesh8473 11 หลายเดือนก่อน

    sir why we are not perfoming lemmatization

    • @javeedma2764
      @javeedma2764 9 หลายเดือนก่อน

      based on requirement.lemmatization is some what slow when compared to stemming

  • @jkscout
    @jkscout 2 หลายเดือนก่อน

    I didn't know 1.6 million was actually 16 million.

  • @boleto7467
    @boleto7467 3 หลายเดือนก่อน

    Can you share the codes

  • @deepikat4520
    @deepikat4520 10 หลายเดือนก่อน

    my training data accuracy is 99% and test data accuracy is 50 my model is overfitted how to avoid it

    • @BrainyiFY_o0
      @BrainyiFY_o0 10 หลายเดือนก่อน

      L1 and L2 regularization are techniques used to prevent overfitting by adding a penalty term to the loss function during training

    • @rasdhdg
      @rasdhdg 10 หลายเดือนก่อน

      Hi brother. Can you please provide me the code . I will pay you the amount you demand . 🙏🙏🙏🙏🙏🙏

    • @Vkg_Universe
      @Vkg_Universe 10 หลายเดือนก่อน

      I also face the same problem

  • @BTS__Army18
    @BTS__Army18 4 หลายเดือนก่อน

    Where is the code

  • @yuktasharma7921
    @yuktasharma7921 3 หลายเดือนก่อน

    Can u please provide the source code?

  • @154yashraj3
    @154yashraj3 5 หลายเดือนก่อน

    snaives bayes multinomial model has a higher accuracy

  • @deepikaravi9292
    @deepikaravi9292 6 หลายเดือนก่อน

    50.22

  • @Zainab-en9fd
    @Zainab-en9fd 9 หลายเดือนก่อน

    Can anyone tell me is twitter api free

  • @Alex-oz5kn
    @Alex-oz5kn ปีที่แล้ว +35

    It's ML not YemYel

    • @jubayer1640
      @jubayer1640 10 หลายเดือนก่อน +1

      😄

    • @OfficeUse-oo4kx
      @OfficeUse-oo4kx 10 หลายเดือนก่อน

      What the point you considered 😅

    • @officialteflon5971
      @officialteflon5971 9 หลายเดือนก่อน

      😂😂😂

    • @nikhilranjan32
      @nikhilranjan32 หลายเดือนก่อน

      Bro concentrate on problem statement

  • @ChandraShekarYadav-qp8pz
    @ChandraShekarYadav-qp8pz 5 หลายเดือนก่อน

    develop brain tumor detection project using cnn

  • @albingeorgekurian4396
    @albingeorgekurian4396 9 หลายเดือนก่อน +5

    hello friends i have completed the more than half tutorial still need to go..
    in the tutorial I have seen that the stemming is taking to much time (almost 50m) so I just optimized it little bit....
    code:
    [ ] pattern =re.compile('[^a-zA-Z]')
    [ ] english_stopwords = stopwords.words('english')
    [ ] port_stemmer = PorterStemmer()
    [ ] def stemming(content):
    stemmed_content = re.sub(pattern,' ',content)
    stemmed_content = stemmed_content.lower()
    stemmed_content = stemmed_content.split()
    stemmed_content = [port_stemmer.stem(word) for word in stemmed_content if not word in english_stopwords]
    stemmed_content = ' '.join(stemmed_content)
    return stemmed_content
    [ ] twitter_data['stemmed_content'] = twitter_data['text'].apply(stemming)
    mine just completed in 6m

    • @infinity8982
      @infinity8982 8 หลายเดือนก่อน +1

      I can't thank you enough 🛐finally I can continue the video😭

    • @techkunbyamogh
      @techkunbyamogh 8 หลายเดือนก่อน

      @@infinity8982did u complete it bro is it working??

    • @vanshikajain3014
      @vanshikajain3014 5 หลายเดือนก่อน

      can u provide the link of source code or share it with me

    • @yuktasharma7921
      @yuktasharma7921 3 หลายเดือนก่อน

      Hey can u please provide the whole source code if u have done

  • @ddaayNom
    @ddaayNom 10 หลายเดือนก่อน

    49:52