@@CodeXploreanh nay cũng 43 tuổi rồi , dân trái ngành, Python basic, cũng muốn học data analysis em nghĩ thế nào, nếu được cho a lời khuyên nhé. Nếu em có mở khóa học thì cho anh thông tin nhé
@@nguyenduyta7136 dạ nếu anh có đam mê yêu thích thì anh vẫn có thể học thêm ở lĩnh vực data analysis ạ. Có thể học thêm các visualisation tool như Power BI hoặc Tableau a nhé! Hiện tại em chưa có các khoá học nào ngoài TH-cam nên anh có thể tham khảo các khoá trên Udemy về Data Analysis ạ
Bạn giảng hay lắm, cảm ơn bạn. Hi vọng sẽ có thêm nhiều clip hướng dẫn. vd: Sau khi lấy dữ liệu thì cái này là dữ liệu thô, và ko có get từ api. Nên khi có cập nhật thì mình phải cập nhật thủ công. Đa số sẽ viết 1 cái job chạy tự động sau xxx time để get, và update lại vào store. Ngoài cách thủ công như vậy thì ko biết bạn có cách nào hay hơn không? và làm sao để tự động lấy tin khi có update mới. Cảm ơn bạn
Với những trang web họ xuất dữ liệu ra bằng javascript, tức là khi chúng ta inspect trang web đó thì thấy được dữ liệu, nếu ctrl+u để viewsource thì chỉ cơ các thẻ tag cơ bản, ko có dữ liệu thì các thư viện Python này có làm được ko bạn? Bạn có thể ra video tiếp không 😊
Bạn cho mình hỏi, mình cần thu thập dữ liệu từ web khác như shopee chẳng hạn với các nội dung như tên sản phẩm, giá bán hàng, số lượng thì cách làm có tương tự như nội dung hướng dẫn trong video này ko?
phần thẻ khi dùng soup.find('body') mình ra no cho ra kết quả như vậy : document.cookie="D1N=ebf8bcb9799b521106133976232e0045"+"; expires=Fri, 31 Dec 2099 23:59:59 GMT; path=/";window.location.reload(true);. Có cách nào khắc phục không bạn mình kẹt chổ này nên không crawl được gì luôn, hay phải dùng selenium cho những trang web dùng script như này. Cảm ơn chia sẽ của bạn
# Tạo data data[] # Thêm dữ liệu vào danh sách, đưa dòng này vào vòng lặp for để lưu lại toàn bộ danh sách đã lấy được. data.append([position, name, country, car, pts]) # Chuyển đổi danh sách thành DataFrame df = pd.DataFrame(data, columns=['Position', 'Name', 'Country', 'Car', 'Points']) # Lưu DataFrame thành file Excel df.to_excel('formula1_2024_drivers.xlsx', index=False) Hi vọng giúp được bạn
Crawl shopee hay foody cũng tương tự vậy mà. tuy nhiên nếu crawl shopee hay foody thì crawl theo từng category, lấy thêm hình ảnh lưu về local sau đó insert nó vào excel để lưu offline
mình có một dự án muốn nhờ cao thủ giúp để hoàn thiện (lấy dữ liệu kiểu công văn chỉ đạo từ 1 bảng, lưu file về và đưa lên google sheet). Bác nào có time thì giúp mình nhé. Xin gửi phí ạ
Rất thích cách dạy của anh. Nếu a ra các khóa học, em sẽ ủng hộ ạ. E dân trái ngành đang học data analysis, xem của a a dễ hiểu lắm ạ
Cảm ơn em đã luôn ủng hộ CodeXplore nhé 👏 Anh sẽ cố gắng để ra nhiều video chất lượng hơn nữa
@@CodeXploreanh nay cũng 43 tuổi rồi , dân trái ngành, Python basic, cũng muốn học data analysis em nghĩ thế nào, nếu được cho a lời khuyên nhé. Nếu em có mở khóa học thì cho anh thông tin nhé
@@nguyenduyta7136 dạ nếu anh có đam mê yêu thích thì anh vẫn có thể học thêm ở lĩnh vực data analysis ạ. Có thể học thêm các visualisation tool như Power BI hoặc Tableau a nhé! Hiện tại em chưa có các khoá học nào ngoài TH-cam nên anh có thể tham khảo các khoá trên Udemy về Data Analysis ạ
hay qúa. Mong a ra nhiều hơn vì cách dạy của a rất dễ hiểu
Anh sẽ cố gắng để ra nhiều video hơn nữa nhé ! Cảm ơn Em đã ủng hộ CodeXplore nhiều nhé 👏
Anh sẽ cố gắng để ra nhiều video hơn nữa nhé ! Càm ơn Em đã ủng hộ CodeXplore nhiều nhé 👏
video rất hay anh ơi. Mong anh có thể ra thêm nhiều video chất lượng
Nhất định rồi em nhé ! Cảm ơn em nhiều nha
bổ ích quá, dạy dễ hiểu nữa, mong anh ra nhiều clip nhé
cảm ơn em nhiều nhé
Bạn giảng hay lắm, cảm ơn bạn. Hi vọng sẽ có thêm nhiều clip hướng dẫn.
vd: Sau khi lấy dữ liệu thì cái này là dữ liệu thô, và ko có get từ api. Nên khi có cập nhật thì mình phải cập nhật thủ công. Đa số sẽ viết 1 cái job chạy tự động sau xxx time để get, và update lại vào store. Ngoài cách thủ công như vậy thì ko biết bạn có cách nào hay hơn không? và làm sao để tự động lấy tin khi có update mới. Cảm ơn bạn
anh dạy dễ hiểu quá. a có thể recomend cho e vài khóa học nên học khi bắt đầu nhảy ngang qua code được ko ạ. E đã học được 1 chút căn bản python
anh làm tiếp lập trình game bằng python đi, em muốn học nhiều game mà toàn tiếng anh, mong anh hướng dẫn tạo thêm nhiều tựa game hay, cảm ơn anh 😊
Hi em a sẽ cố gắng làm các video về chủ đề lập trình game nhé
Với những trang web họ xuất dữ liệu ra bằng javascript, tức là khi chúng ta inspect trang web đó thì thấy được dữ liệu, nếu ctrl+u để viewsource thì chỉ cơ các thẻ tag cơ bản, ko có dữ liệu thì các thư viện Python này có làm được ko bạn? Bạn có thể ra video tiếp không 😊
Rất trực quan, cảm ơn b nhé !
Codexplore rất vui vì video hữu ích vs bạn
Úi bữa em cũng nhận được 1 bài test cho job FrontEnd y chang video này luôn anh @@
Ồ thật trùng hợp em nhỉ ? Tại cũng có nhiều bạn hỏi anh về chủ đề này nên anh làm video hướng dẫn luôn 😄
quá tuyệt quá bổ ích thank a
CodeXplore rất vui khi video hữu ích vs em 😍
Những bài học rất thú vị. Nếu có thể hy vọng CodeXplore làm 1 series về Langchain.
Ok em 👍 anh sẽ nghiên cứu rồi làm nhé
Bạn cho mình hỏi, mình cần thu thập dữ liệu từ web khác như shopee chẳng hạn với các nội dung như tên sản phẩm, giá bán hàng, số lượng thì cách làm có tương tự như nội dung hướng dẫn trong video này ko?
cảm ơn anh. a có thể làm video crawl data từ các trang thương mại điện tử không?
Cho e hỏi nếu trang web yêu cầu đăng nhập mới xem đc dữ liệu mình cần lấy thì mình phải code thêm phần tự đăng nhập vào phải ko ạ?
Làm về docker đi anh ❤
Ok em để anh nghiên cứu rồi làm nhé
a ra video chỉ cách craw đa luồng được không ạ
phần thẻ khi dùng soup.find('body') mình ra no cho ra kết quả như vậy : document.cookie="D1N=ebf8bcb9799b521106133976232e0045"+"; expires=Fri, 31 Dec 2099 23:59:59 GMT; path=/";window.location.reload(true);. Có cách nào khắc phục không bạn mình kẹt chổ này nên không crawl được gì luôn, hay phải dùng selenium cho những trang web dùng script như này. Cảm ơn chia sẽ của bạn
anh ơi em ko import được 2 cái thư viện, mà em kiểm tra thì đều cài đặt 2 thư viện đó rồi ạ
anh ơi em muốn Export ra csv ạ, mấy nay em loay hoay anh có video hướng dẫn không ạ
# Tạo data
data[]
# Thêm dữ liệu vào danh sách, đưa dòng này vào vòng lặp for để lưu lại toàn bộ danh sách đã lấy được.
data.append([position, name, country, car, pts])
# Chuyển đổi danh sách thành DataFrame
df = pd.DataFrame(data, columns=['Position', 'Name', 'Country', 'Car', 'Points'])
# Lưu DataFrame thành file Excel
df.to_excel('formula1_2024_drivers.xlsx', index=False)
Hi vọng giúp được bạn
Anh cho em hỏi, sao trong jupyter notebook vscode của em nó không hiện gợi ý nhập như của anh. Có cách nào không ạ
Hi em em cài extension Python của Vscode chưa
crawnl xong ko index. tại trùng content cậu ơi.
Đoạn select kernel em không xuất hiện Python Env là do đâu anh nhỉ?
Em có tạo virtual env giống a chưa ?
a ơi, a có nhận crawl data trên foody về không ạ ?
Crawl shopee hay foody cũng tương tự vậy mà. tuy nhiên nếu crawl shopee hay foody thì crawl theo từng category, lấy thêm hình ảnh lưu về local sau đó insert nó vào excel để lưu offline
đối với những trang ko có sẵn thẻ như trang f1 thì làm sao anh
hi em, thì mình sẽ phải check trong inspect xem là các element mình muốn lấy nó nằm ở trong html tag nào rồi mình scrape e nhé
Anh có phải là một fan F1 không anh :))
Anh có xem nhưng mà là fan phong trào à e 😅
cái link invite discord hết hạn rui anh ơi, anh cho em xin lại link vào server với ạ :>
mình có một dự án muốn nhờ cao thủ giúp để hoàn thiện (lấy dữ liệu kiểu công văn chỉ đạo từ 1 bảng, lưu file về và đưa lên google sheet). Bác nào có time thì giúp mình nhé. Xin gửi phí ạ
Lô anh
Hi em
cho xin link web codexplore's friends