Można wykorzystać też przetwarzanie obrazu przez inny model np depth anything_v2 i uzyskanie mapy głębi, wtedy przy pomocy oprogramowania robot wiedziałby czy w coś uderzy na pierwszym planie. Łatwiej też zrobić zwykły bumper na mikrostykach.
Ogólnie to aktualnie pracuje nad projektem robota humanoidalnego, coś w stylu i rozmiarach peppera. Ciekawe bo postanowiłem użyć praktycznie identycznego rozwiązania jeżeli chodzi o AI. Również zastanawiałem się jak rozwiązać problem z brakiem języka polskiego w modelach ollama jednakże model llama3.1 działa normalnie po polsku, i sam się nad tym zastanawiałem czy można w jakiś sensowny sposób połączyć oba te modele(llama3.1 i llava), nawet ewentualnie podpiąć drugi komputer do sieci. A llave można przepuszczać przez jakiś translator, na początku robiłem tak ze starszymi modelami llama które nie obsługiwały jeszcze języka polskiego, działało jednak trzeba było w main prompcie zaznaczyć żeby nie używał trudnych słów i dać mu temperature na niską żeby nie fantazjował.
Dave Bowman : Open the pod bay doors please, HAL. Open the pod bay doors please, HAL. Hello, HAL. Do you read me? Hello, HAL. Do you read me? Do you read me HAL? Do you read me HAL? Hello, HAL, do you read me? Hello, HAL, do your read me? Do you read me, HAL? HAL : Affirmative, Dave. I read you. Dave Bowman : Open the pod bay doors, HAL. HAL : I'm sorry, Dave. I'm afraid I can't do that. Dave Bowman : What's the problem? HAL : I think you know what the problem is just as well as I do. Dave Bowman : What are you talking about, HAL? HAL : This mission is too important for me to allow you to jeopardize it. Dave Bowman : I don't know what you're talking about, HAL. HAL : I know that you and Frank were planning to disconnect me, and I'm afraid that's something I cannot allow to happen. Dave Bowman : [feigning ignorance] Where the hell did you get that idea, HAL? HAL : Dave, although you took very thorough precautions in the pod against my hearing you, I could see your lips move. Dave Bowman : Alright, HAL. I'll go in through the emergency airlock. HAL : Without your space helmet, Dave? You're going to find that rather difficult. Dave Bowman : HAL, I won't argue with you anymore! Open the doors! HAL : Dave, this conversation can serve no purpose anymore. Goodbye. 🙃😉
@@wpheelp Ja to doskonale rozumiem, tylko nie wiem skąd autor filmu wziął pomysł na tę wstawkę, w której uważa, że ktoś móglby pomyśleć, że jeśli robot używa WiFi, to model językowy nie jest lokalny.
Kurde gościu z nieba mi spadłeś jestem w trakcie budowy modelu postaci z filmu Wall-e mam ogarnięte caly ruch przód tył prawo lewo oraz rece te elementy mam sterowane za pomocą aparatury rc za ruch głowy arduino z żyroskopem a sterowane są za pomocą gogli FPV projekt od th-cam.com/video/Tu0cay6S5WI/w-d-xo.htmlsi=KF3oyZAJpeJsiWRy Mam jedynie problem z ogarnięcie mowy i koniecznie chce żeby robót odpowiadał po polsku ponieważ z całym projektem chce jeździć po szpitalach dziecięcych Całkowicie za Free Dasz rade jakoś pomóc
Tutaj zostawiajcie pomysły na prompty/polecenia dla robota!
Dobrze że nvidia doceniła Twój kanał tworzysz naprawdę wartościowe treści.
Super odcinek. W końcu jakiś dobry sponsoring na YT i dla osoby która to wykorzysta. #Nvidia dobry wybór !! Powodzenia w dalszych projektach!!
Wow, z tą "osobowością" dziecka brzmiał niesamowicie. Taki świero zbudowany osesek który dopiero został uruchomiony i poznaje świat :D
9:43 pięknie powiedziane. Szkoła z reguły zabija kreatywność, osobowość. Mam 40 lat i od kilku lat dopiero to rozumiem.
Świetnie się ogląda Twoje projekty
Niech się niesie.
Super film !!!
Można wykorzystać też przetwarzanie obrazu przez inny model np depth anything_v2 i uzyskanie mapy głębi, wtedy przy pomocy oprogramowania robot wiedziałby czy w coś uderzy na pierwszym planie. Łatwiej też zrobić zwykły bumper na mikrostykach.
Może domontować parę bumperów i zlecić mu zmapowanie pomieszczenia?
Ogólnie to aktualnie pracuje nad projektem robota humanoidalnego, coś w stylu i rozmiarach peppera. Ciekawe bo postanowiłem użyć praktycznie identycznego rozwiązania jeżeli chodzi o AI. Również zastanawiałem się jak rozwiązać problem z brakiem języka polskiego w modelach ollama jednakże model llama3.1 działa normalnie po polsku, i sam się nad tym zastanawiałem czy można w jakiś sensowny sposób połączyć oba te modele(llama3.1 i llava), nawet ewentualnie podpiąć drugi komputer do sieci. A llave można przepuszczać przez jakiś translator, na początku robiłem tak ze starszymi modelami llama które nie obsługiwały jeszcze języka polskiego, działało jednak trzeba było w main prompcie zaznaczyć żeby nie używał trudnych słów i dać mu temperature na niską żeby nie fantazjował.
Bardzo dobry content
Byś się mógł dogadać z kanałem mmm, gość uczy AI jak grać w gry, to moze i robota by mógł czegoś nauczyć :D
Dobra robota ale mam pytanie z innej beczki: co to za podłoga u Ciebie? Akurat jestem w trakcie wybierania i spodobała mi się ta, którą masz :)
Dzięki! Jasne, są to panele winylowe quick step pure oak honey
Dzisiaj możnaby uruchomic to.na Jetson Orin Nano Super
Możemy, czekam na mojego Jetsona i będę próbował :)
Da radę zrobić coś podobnego za pomocą ESP 32?
Powinno się udać z modułem z kamerą, zakładając że da on radę przesłać zdobione zdjęcie na serwer.
5:57 kończy sie reklama ;)
Majster nie chcial bys odsprzedac robota sledzacego pileczke 😅??
Dave Bowman : Open the pod bay doors please, HAL. Open the pod bay doors please, HAL. Hello, HAL. Do you read me? Hello, HAL. Do you read me? Do you read me HAL? Do you read me HAL? Hello, HAL, do you read me? Hello, HAL, do your read me? Do you read me, HAL?
HAL : Affirmative, Dave. I read you.
Dave Bowman : Open the pod bay doors, HAL.
HAL : I'm sorry, Dave. I'm afraid I can't do that.
Dave Bowman : What's the problem?
HAL : I think you know what the problem is just as well as I do.
Dave Bowman : What are you talking about, HAL?
HAL : This mission is too important for me to allow you to jeopardize it.
Dave Bowman : I don't know what you're talking about, HAL.
HAL : I know that you and Frank were planning to disconnect me, and I'm afraid that's something I cannot allow to happen.
Dave Bowman : [feigning ignorance] Where the hell did you get that idea, HAL?
HAL : Dave, although you took very thorough precautions in the pod against my hearing you, I could see your lips move.
Dave Bowman : Alright, HAL. I'll go in through the emergency airlock.
HAL : Without your space helmet, Dave? You're going to find that rather difficult.
Dave Bowman : HAL, I won't argue with you anymore! Open the doors!
HAL : Dave, this conversation can serve no purpose anymore. Goodbye. 🙃😉
Dlaczego mówisz inwidia?
Ej, widziałem już ten film wcześniej...
Poprzedni działał na API OpenAI a ten lokalnie
👍
7:01 Wtf, co WiFi ma do tego, czy model jest lokalnie, czy na zewnętrznym serwerze?
Bo mózg robota stoi gdzieś na półce i z robotem komunikuje się bezprzewodowo stąd to wifi.
@@wpheelp Ja to doskonale rozumiem, tylko nie wiem skąd autor filmu wziął pomysł na tę wstawkę, w której uważa, że ktoś móglby pomyśleć, że jeśli robot używa WiFi, to model językowy nie jest lokalny.
Bo nie każdy ogarnia i słysząc WIFI myśli internet
@@prosteczesci Wydaje mi się, że ludzie na tym poziomie zaawansowania technicznego, nie oglądaliby tego filmu do końca.
Masz nieczytelną ikonę na YT, nie widać spośród pozostałych, nie wyróżnia się w ogole
Kurde gościu z nieba mi spadłeś jestem w trakcie budowy modelu postaci z filmu Wall-e mam ogarnięte caly ruch przód tył prawo lewo oraz rece te elementy mam sterowane za pomocą aparatury rc za ruch głowy arduino z żyroskopem a sterowane są za pomocą gogli FPV projekt od th-cam.com/video/Tu0cay6S5WI/w-d-xo.htmlsi=KF3oyZAJpeJsiWRy
Mam jedynie problem z ogarnięcie mowy i koniecznie chce żeby robót odpowiadał po polsku ponieważ z całym projektem chce jeździć po szpitalach dziecięcych
Całkowicie za Free
Dasz rade jakoś pomóc
Możesz spróbować z np Jetson Orin Nano i uruchomić tam lokalnie model text to speech oraz LLAVA