Poxa Antônio, muito obrigado pelas palavras!!! Fico feliz que você tenha gostado!!! E mais feliz em saber que meus conteúdos tem ajudado as pessoas. Um grande abraço!!
O vídeo é incrível! Parabéns! e muito obrigado por compartilhar estes conhecimentos desta área apaixonante que é a análise estatística de dados! As entrevistas também estão cada vez mais empolgantes! Fã de carteirinha e seguidor do canal.
Grande Enrique tudo bom? Poxa, muito obrigado pelo comentário. Fico muito feliz que esteja gostando dos conteúdos!! Estou tentando trazer esse tema de Ciência de Dados de maneira prática e objetiva para ajudar as pessoas!! Espero ajudar quem precisa Enrique!! Forte abraço pra você!!
Seja Um Data Scientist to MARATONANDO. Já fiz resumos sobre dois vídeos sensacionais. Muito bom seu conteúdo e sua iniciativa. Obrigado por compartilhar seu conhecimento conosco!
Sensacional! Uma dúvida muito básica, me perdorem por isso, mas que atalho tu usa pra transformar o markdown nessas listas que podem ser retraídas e expandidas?
Acho que os dados poderiam ser apresentados melhores formatados, conforme você apresentaria a um cliente real ( Acredito que para um cliente o percentual você apresentaria em 60% e não 0.60) sei que pra quem é da área é algo simples, mas para quem está aprendendo faz toda diferença! obrigado pelo vídeo, abraço!
cara, muito bom esse vídeo! foram 27 minutos que passaram voando! muito obrigado por compartilhar isso com a gente. já estou ansioso pelo próximo vídeo da serie. um abração meigarom!!!
ola, meigaron. estou iniciando estudo na area, minha pergunta:como posso criar um projeto para uma micro empresa,com os dados do pdv da mesma?e para onde importo esses dados para gerar insights ?
Opa, beleza? Parabens pelo vídeo, sou nova na área então tenho muitas dúvidas e me desculpe se for uma pergunta muito estúpida, mas gostaria de saber pq que esse erro acontece, sendo que você pegou dados da própria tabela. Vlw pedo vídeo, estou aprendendo muito com o seu canal
Fala Meigarom. Tudo certo? Nós poderíamos usar o desvio padrão para classificar o erro? Caso sim, como funcionaria e qual seria a principal diferença entre mostrar o erro de forma percentual ou pelo desvio padrão?
Fala Rodrigo blz? O desvio padrão não mede erro e sim o quanto seus dados estão dispersos nem relação a métrica central. Você pode calcular várias vezes o erro do modelo e calcular o desvio padrão sobre esses erros do modelo. Você teria o desvio padrão do erro do modelo. Faz sentido?
@@ComunidadeDS Perfeito Meigarom. Exato! Neste sentido que tentei me expressar de mostrar o quanto o erro do modelo estaria disperso em relação à média. Obrigado!
A melhor ferramenta é aquela que você gosta mais! E a que funciona mellhor para o seu problema! Eu uso o Jupyter noteboo desde de sempre, já gerei muito milhões de reais em lucro para as empresas com modelos feitos nele. A ferramenta melhor é aquele que te ajuda a trazer mais resultados no menor tempo possível! Abraço Sem Nome!
Muito bom Meigarom. Mas uma pergunta, não seria necessário remover a variável ID também do X_train? Porque por exemplo, se for feita uma matriz de correlação, o ID provavelmente terá uma alta correlação com price. Abraços
Grande sem nome, tudo bom? O x é o conjunto de dados com os atributos que representam seu fenômeno de interesse. O y é a variável resposta, ou seja, os valores que você está ensinando para o seu modelo
2 ปีที่แล้ว
@@ComunidadeDS é a mesma lógica da regressão logistica/linear ?
Eu não consigo implementar no meu computador com jupyter notebook da erro ao excluir a data e preço e depois ao criar o y_train. Pode me ajudar , por gentileza.
Ola estou com seguinte erro quando uso sklearn para testa as base erro e "ValueError: Input contains NaN, infinity or a value too large for dtype('float64')."
Julio, isso significa que alguma coluna sua está com NA ( dados faltantes ). Faz um df.isna().sum() e olha quais são essas colunas e quantos dados faltantes em cada coluna!
@@ComunidadeDS show de bola, depois qua achei os dados com NA, utilizei o comando df_raw['bedrooms'].fillna(1, inplace=True), para corrigir. Obrigado!!!
Faaalaa Antônio, blz? Cenas dos próximos vídeos, não perca! hahaha. Basicamente temos que estudar os dados pra saber se o dados satisfazem as premissas do modelo. Quanto mais próximo das premissas, menor o erro médio. Eu vou explicar certinho nos próximos vídeos, fica tranquilo! Um grande abraço!
Grande mestre Meigarom. Parabéns. Show.
A didática, o conteúdo, o material, o projeto comunidade Ds é sensacional. Esse cara é fera.
Muito boa essa aula. Parabéns pela didática.
Caara, seu video é senssacional!
QUE DIDÁTICA! Ótima dicção, ótima gravação. Excelente!
MUUUUIIITO OBRIGADO pela generosidade de torná-lo público!
Poxa Antônio, muito obrigado pelas palavras!!!
Fico feliz que você tenha gostado!!! E mais feliz em saber que meus conteúdos tem ajudado as pessoas.
Um grande abraço!!
O vídeo é incrível! Parabéns! e muito obrigado por compartilhar estes conhecimentos desta área apaixonante que é a análise estatística de dados! As entrevistas também estão cada vez mais empolgantes! Fã de carteirinha e seguidor do canal.
Grande Enrique tudo bom?
Poxa, muito obrigado pelo comentário.
Fico muito feliz que esteja gostando dos conteúdos!! Estou tentando trazer esse tema de Ciência de Dados de maneira prática e objetiva para ajudar as pessoas!!
Espero ajudar quem precisa Enrique!!
Forte abraço pra você!!
Excelente vídeo
Massa demais! 30 minutos passaram voando!!!
Obrigado por essa aula, Meigarom! Excelente para quem está começando.
Eu que agradeço pelo seu tempo em assistir a aula Cairo!
Espero ter ajudado!
Grande abraço!
Nem vi o vídeo e já tasquei o joinha! Obrigado pela ajuda man 👏🏽👏🏽👏🏽👏🏽
HAHAHAH, grande Alexandre!!!
Muito obrigado !!!
Eu que agradeço pelo seu tempo em assistir aos vídeos!!
Seja Um Data Scientist to MARATONANDO.
Já fiz resumos sobre dois vídeos sensacionais. Muito bom seu conteúdo e sua iniciativa.
Obrigado por compartilhar seu conhecimento conosco!
Vídeo muito bom. Muito bem explicado. Muito didático. Gostei e recomendo.
Grande Julio, blz?
Muito obrigado pelo comentário!!
Conto com as suas recomendações!!
Um grande abraço!
Excelente video de algoritmo supervisionado.
Muito obrigado!
Toooop! Ansiosa pelos próximos vídeos. Parabéns como sempre.
Oii Priscila, tudo bem?
Fica no aguardo que logo eu vou publicar a continuação desse série!!
Muito obrigado!! :)
Ótimo vídeo, como sempre. Já estou no aguardo dos próximos vídeos da série, principalmente da parte de testes de hipóteses.
Grande Olavo,
Vamos chegar lá!! Mas tem um caminho a percorrer ainda, mas de ciclo em ciclo a gente chega lá!
Um grande abraço!
Parabéns pela qualidade do vídeo e do canal. Show!!
Muito obrigado pela mensagem Henrique!
Grande abraço!
Sensacional! Uma dúvida muito básica, me perdorem por isso, mas que atalho tu usa pra transformar o markdown nessas listas que podem ser retraídas e expandidas?
Muito bom, o aprendizado foi enorme. Aguardando o próximo ciclo.
Grande Jean, blz?
Que bom que gostou, fico contente!
Já temos a continuação, tem 4 ciclos gravados!!
Espero que te ajude! Grande Abraço!
@@ComunidadeDS Opa! Já vou abrindo o Jupyter pra continuar de onde parei. Valeu tá mandando bem.
muito top, você explica muito facil...............
Grande Clenio, tudo bom?
Poxa, muito obrigado!
Forte abraço!
Mano, que vídeo super show! Excente! Tô aqui ancioso pelo próximo capítulo deste que pode ser uma baita série! Ótimo trabalho!
Grande Giovane,
Que bom que gostou mano, essa série vai ser épica.
Você vai pirar quando ver até onde vamos nos aprofundar!
Um grande abraço!
SHOW CARA. OBRIGADO.
Grande Edson!!
Eu que agradeço pelo seu comentário!!
Grande abraço!
Mano, você é muito bom! Muito obrigado!
Imagina!
Obrigado pelas palavras Hugo!
Bons estudos!
Como sempre, ótimo vídeo. Sempre entregando valor! 😎
Grande Victor!!!
Muito obrigado!!
Um grande abraço!
Cara vc é fera! E gostei da camisa!
Hahahaha é minha preferida também Uanderson. Obrigado pelas palavras meu caro. Bons estudos
@@ComunidadeDS suas aulas estão melhores que muitas pós graduações
@@UandersonSilva muito obrigado meu caro. Talvez seja porque o conteúdo é direto do campo de batalha
massa demais
Fala Meigarom! Nos projetos utilizando Python, qual IDE ou ambiente você mais recomenda utilizar ? Abraços
Muito bom, obrigado por compartilhar!
Imagina Alexandro,
Espero ter ajudado!!
Abração!
Muito massa! Grato!
Muito obrigado Rodolfo!
Eu que agradeço seu tempo em assistir aos vídeos!
Grande Abraço!
Sensacional!
Muito obrigado Mahelvson!
Show, parabéns!! No guardo do próximo vídeo!
Faaala Hélio, blz?
Muito obrigado, fica no aguardo ae que logo eu publico a continuação!!
Um grande abraço!
Excelente, professor!!
Sensacional, parabéns pela didática, excelente!
Excelente vídeo! Muito obrigado!
Faaalllaa Alexandre!! blz?
Poxa, muito obrigado!
Acho que os dados poderiam ser apresentados melhores formatados, conforme você apresentaria a um cliente real ( Acredito que para um cliente o percentual você apresentaria em 60% e não 0.60) sei que pra quem é da área é algo simples, mas para quem está aprendendo faz toda diferença! obrigado pelo vídeo, abraço!
Obrigado pela sugestão Ramon.
ótimo vídeo, parabéns
Muito obrigado Italo!!
Vão vir mais vídeos técnicos dessa forma, fica ligado!!
Abração!
cara, muito bom esse vídeo! foram 27 minutos que passaram voando! muito obrigado por compartilhar isso com a gente. já estou ansioso pelo próximo vídeo da serie. um abração meigarom!!!
Faaaalaa Vitor!!
Que bom que gostou mano, logo vou publicar os próximos vídeos.
Um grande Abraço pra você também!!!
Muito bom.
ola, meigaron. estou iniciando estudo na area,
minha pergunta:como posso criar um projeto para uma micro empresa,com os dados do pdv da mesma?e para onde importo esses dados para gerar insights ?
MUITO BOM!
Opa, beleza? Parabens pelo vídeo, sou nova na área então tenho muitas dúvidas e me desculpe se for uma pergunta muito estúpida, mas gostaria de saber pq que esse erro acontece, sendo que você pegou dados da própria tabela. Vlw pedo vídeo, estou aprendendo muito com o seu canal
Fala Meigarom. Tudo certo?
Nós poderíamos usar o desvio padrão para classificar o erro? Caso sim, como funcionaria e qual seria a principal diferença entre mostrar o erro de forma percentual ou pelo desvio padrão?
Fala Rodrigo blz?
O desvio padrão não mede erro e sim o quanto seus dados estão dispersos nem relação a métrica central.
Você pode calcular várias vezes o erro do modelo e calcular o desvio padrão sobre esses erros do modelo. Você teria o desvio padrão do erro do modelo.
Faz sentido?
@@ComunidadeDS Perfeito Meigarom. Exato! Neste sentido que tentei me expressar de mostrar o quanto o erro do modelo estaria disperso em relação à média.
Obrigado!
Boa Rodrigo! Na última live que eu fiz no canal, tem um exemplo de como colocar o desvio padrão. Acho que pode te ajudar
@@ComunidadeDS show, muito obrigado novamente!
Uso o jupyter notebook a um bom tempo. Mas aí me surge a dúvida. Qual é o melhor para utilizar. Jupyter notebook (clássico) ou o jupyterlab?
A melhor ferramenta é aquela que você gosta mais!
E a que funciona mellhor para o seu problema!
Eu uso o Jupyter noteboo desde de sempre, já gerei muito milhões de reais em lucro para as empresas com modelos feitos nele.
A ferramenta melhor é aquele que te ajuda a trazer mais resultados no menor tempo possível!
Abraço Sem Nome!
@@ComunidadeDS Obrigado novamente pela resposta. Seu conteúdo vem me ajudando bastante para ser um Data Scientist. Muito obrigado.
@@thebaldman0101 imagina! Eu que agradeço ao seu tempo em assistir aos conteúdos!
Bons estudos!
Que aula tooooppp caraaa! Quando sai o proximo ciclo??? Ansioso já!!!
Grande João, tudo bom? Obrigado pelas palavras, fico feliz que tenha gostado.
No canal, tem 6 ciclos já. Da uma olhada nos vídeos.
Abração!
Muito bom Meigarom. Mas uma pergunta, não seria necessário remover a variável ID também do X_train? Porque por exemplo, se for feita uma matriz de correlação, o ID provavelmente terá uma alta correlação com price. Abraços
Tem que remover sim Danilo.
A variável ID não tem nenhum conteúdo de informação, é apenas um identificador único
Meu amigo, onde consigo essas bases ? Quero replicar na pratica.. Sensacional
Grande Giovanni, tudo bom?
A base de dados está nesse link: www.kaggle.com/harlfoxem/housesalesprediction?select=kc_house_data.csv
Bons estudos!
Olá Meigarom!... você tem esses dados ficticios? onde acho eles? está no seu blog? Obrigado
Faaala Eddy, blz?
Eles estão dentro de um post lá no blog.
Acabei de coloca o link na descrição do vídeo. Se não achar, me avisa!
Bons estudos!
Muito obrigado Meigarom!... vou olhar lá. Muito obrigado por compartilhar os Dados e tua experiência como DS.
@@LearningWorldChatGPT Imagina! Obrigado pelo seu tempo em ver aos vídeos, precisando de alguma coisa, manda msg!
Acabei de iniciar em Machine Learning, mas tenho uma dúvida ainda não respondida. O que significa o "x" e o "y" em Scikit-Learn?
Grande sem nome, tudo bom?
O x é o conjunto de dados com os atributos que representam seu fenômeno de interesse.
O y é a variável resposta, ou seja, os valores que você está ensinando para o seu modelo
@@ComunidadeDS é a mesma lógica da regressão logistica/linear ?
Eu não consigo implementar no meu computador com jupyter notebook da erro ao excluir a data e preço e depois ao criar o y_train. Pode me ajudar , por gentileza.
Cade o link com o banco CSV das casas???
eu tenho q instalar ok pra fazer alguma coisa assim n entendi nada isso e um site ou eu tenho que instalar alguma coisa
Muito bom, o que usou pra gravar?
Fala Gringo, blz?
Uso uma câmera e screencast da tela.
Mestre, onde encontro esse arquivo para iniciar o projeto?
Nakton, odataset está nesse link aqui: www.comunidadedatascience.com/os-5-projetos-de-data-science-que-fara-o-recrutador-olhar-para-voce/
Ola estou com seguinte erro quando uso sklearn para testa as base erro e "ValueError: Input contains NaN, infinity or a value too large for dtype('float64')."
Julio, isso significa que alguma coluna sua está com NA ( dados faltantes ).
Faz um df.isna().sum() e olha quais são essas colunas e quantos dados faltantes em cada coluna!
@@ComunidadeDS show de bola, depois qua achei os dados com NA, utilizei o comando df_raw['bedrooms'].fillna(1, inplace=True), para corrigir.
Obrigado!!!
@@juliobarros8441 Estava com mesmo problema, porém na coluna sqft_above, valeu !
Como criar um comparador de imagens parecidas. Imagens novas que não tem como servir com teste, como modelos de tatuagens que surgem o tempo todo?
Não tenho a menor idéia, Jonatas
Como é possível diminuir o erro da média ??
Faaalaa Antônio, blz?
Cenas dos próximos vídeos, não perca! hahaha.
Basicamente temos que estudar os dados pra saber se o dados satisfazem as premissas do modelo.
Quanto mais próximo das premissas, menor o erro médio.
Eu vou explicar certinho nos próximos vídeos, fica tranquilo!
Um grande abraço!
Excelente, professor!!