hoje 14/07/2020 tem 6 dislaike no video, eu fico pensando quem são essas figuras que fazem isso, o cara esta passando o conhecimento de graça e tem zé ruela que dá dislike, ah vão catar coquinho .
@@CleberCampos já passou pela cabeça de vocês que é impossível agradar todo mundo? uma didática que é boa pra vocês pode não ser boa pra outras pessoas, isso não quer dizer que o cara é um "Zé Ruela com inveja alheia"
Pra mim, esse vídeo foi super didático, simples e objetivo. Tudo que eu queria. O prof. da minha faculdade simplesmente copiou o exemplo do livro sem explicar nada, sozinha consegui entender os cálculos, mas faltou a explicação final, que aqui no Didática Tech foi sensacional. Nota mil!
Comecei a estudar ML agora e sempre achei tudo tão complicado, mas você me mostrou que com uma boa didática da pra aprender. Muito obrigado pela aula!!
Caros, vocês têm algum vídeo explicativo da função predict no R Studio? Como ela funciona ou se baseia? Didática de vocês sensacional. Parabéns e obrigado.
Oi João, aqui no canal vamos postando vídeos periodicamente, mas se você quiser acelerar, temos essas aulas prontas e detalhas em nosso curso de machine learning, módulo II: didatica.tech/curso-de-machine-learning-2-com-python/
Professor, gosto muito das sua aulas mas fiquei com essa dúvida, gostaria, se possível, que o senhor me explicasse. Porque no segundo exemplo da entropia a "IM" ficou com 0,65, consequentemente o "NÃO" ficou com 0,35? Não seria o certo do "SIM" ficar com 0,80? Porque o "NÃO" com apenas 1 chance em 6 ficou com 35% das oportunidades? Um grande abraço e parabéns!
Uma dúvida, eu posso criar um algoritimo para prever as outras combinações, nesse caso, vimos que a função tem o ganho de informação 1, porém podemos perceber que caso houvesse uma combinação diferente, por exemplo, alto, perto e desinteressante, poderia ocorrer um target SIM, é possível o algorítimo prever algo que ele não treinou?
4 ปีที่แล้ว
Sim Jean, essa é a ideia. Na vida real os dados são imperfeitos e o algoritmo irá dar o seu melhor palpite.
estou bem interessado no curso, mas minha dúvida é: o curso vai do basico ao avançado, ou quando eu terminar o curso precisarei fazer outro para poder implementar maching learning em sistemas reais?
4 ปีที่แล้ว
O curso é bastante prático, mostramos vários usos de caso em datasets reais
Terminei o ensino médio agora, e não deixei de notar que esse sistema de classificação é bem parecido com o que se vê em química, quando temos que descobrir quais as concentrações de substâncias que quando alteradas, modificam também velocidade, pra assim definir a fórmula da velocidade de reação, pelo que observei é mesma lógica certo ?
Professor, e quando nossas informações são todas quantitativas? por exemplo colunas de preços, porcentagens e área... Como poderia aplicar esse conceito para descobrir os nódulos pai e filhos?
3 ปีที่แล้ว
Oi Marcio, nós mostramos isso no curso Módulo I: didatica.tech/curso-de-machine-learning-online-com-python/
Pensam em disponibilizar o curso completo (pago) em alguma plataforma como udemy?
5 ปีที่แล้ว
Olá Gilian, o curso completo já está disponível em nosso site. Segue o link: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
professor,em um video na web vi um cara ensinando mas sem calcular o peso, calcular GI sem peso ta certo?
4 ปีที่แล้ว +1
Existem outras formas de se calcular o ganho de informação, mas que chegam no mesmo resultado. Se o método usado não for equivalente ao mostrado nesse vídeo, aí sim estaria errado
Alguém percebeu que o único fator real de decisão era se o trabalho era interessante ou não? Sabendo disso, o que fazemos com os dados? Eliminados as duas primeiras variáveis ou organizamos de outra maneira?
4 ปีที่แล้ว +1
Nesse caso poderia eliminar sim. Mas em problemas reais, dificilmente uma única variável conseguirá explicar tudo sozinha
Na verdade na física a entropia não está muito longe disso. Quando estudamos física estatística a entropia é definida por essa fórmula mas a probabilidade está relacionado aos microestados possíveis no sistema.
Se o ganho de informação da variável função não tivesse sido 1, ou seja, se os dados não tivessem ficado bem classificados usando apenas essa variável, como ficaria a construção da árvore? Essa parte não ficou clara pra mim.
Caracas, aula sensacional! Pra treinar, eu estou tentando fazer um exercício parecido no python, mas descobri que tem algo que não tá dando certo. Eu quero contar, em uma coluna específica, os dados que contenham a palavra 'Sim'. Só que quando uso count() ele conta quantos itens tem em toda coluna. Já tentei fazer algo do tipo tabela.count('Sim') mas não tá dando certo. Enfim, rodei a playlist mas não encontrei. Se alguém puder me dar uma luz onde estou errando, serei grato**2: import pandas as pd dicio = {'':['Europa','Asia','EUA','Austr','Russia'], 'Custo':['Baixo','Alto','Alto','Alto','Baixo'], 'Interesse':['Medio','Medio','Alto','Alto','Medio'], 'Clima':['Frio','Frio','Frio','Calor','Frio'], 'Status':['Nao','Nao','Sim','Sim','Nao']} tab = pd.DataFrame (dicio) print (tab) Et_ps = tab ['Status'].count('Sim')
4 ปีที่แล้ว
Oi Wesley, Você pode contabilizar todos os valores da coluna usando tab ['Status'].value_counts() Ou ainda contabilizar um termo específico tab['Status'].groupby('Sim').count()
@ Não funcionou, deu erro. Mas eu consegui fazer da seguinte forma: tab2 = tab["Status"] tab3 = tab2[tab['Status'] == 'Sim'].count() Provavelmente não é a mais eficiente haha
Parabéns pelo vídeo amigo. Tenho algumas críticas e espero que as leve pelo lado construtivo pois gostei bastante da iniciativa. Só achei que as explicações sobre entropia e ganho de informação poderiam ser mais técnicas e organizadas, pois você começou mostrando como calcular o ganho de informação sem nem ao menos dizer pra quê servia (nesse sentido gostei mais do vídeo do Sandeco). Também acho que o exemplo escolhido poderia ser melhor, no sentido de ter pego um exemplo onde fosse necessário calcular um próximo nó na árvore (não apenas já parando na primeira camada, devido a ter alguns detalhes). Vocês dizem prezar pela didática mas confesso que fiquei um pouco decepcionado pois o ensino em termos de entendimento real do assunto (e não apenas fazer mecanicamente sem explicar bem a teoria) deixou a desejar (ao menos pra esse conteúdo de decision tree) . Confesso também que fiquei um pouco receoso em comprar o curso completo pensando em ter esse mesmo viés
5 ปีที่แล้ว +4
Oi Marinalvo, obrigado pelo comentário. Em relação ao exemplo escolhido, fiz questão de pegar uma árvore pequena (uma camada) porque é o primeiro contato do aluno com o conceito de árvore de decisão, portanto um exemplo conciso, onde fosse possível ver tudo do início ao fim sem precisar gastar horas analisando a árvore seria uma boa forma de assimilar a informação, digerir, para depois continuar. Nas aulas subsequentes eu dou seguimento nesse assunto (quanto abordamos DT em problemas de regressão, eu faço outra camada). Quanto ao fato de explicar o que seria o ganho de informação antes de começar a calcular, eu pensei sobre isso antes de gravar a aula, porém concluí que seria difícil explicar o conceito sem que o aluno soubesse o que significava entropia, e este conceito - por sua vez - só seria bem explicando mostrando um cálculo e um gráfico. Ou seja, havia uma interdependência entre eles, uma explicação "resumida" antes de começar os cálculos acabaria ficando subjetiva e um pouco "vazia". Talvez no seu caso (que aparentemente já tinha certo background por ver outros vídeos), uma explicação prévia servisse bem, mas sinceramente acho que um aluno médio ficaria desencorajado. Eu comentei isso logo que mostrei as fórmulas, prometendo que depois de calcular iria explicar os conceitos, e de fato fiz isso. Foi uma estratégia incomum, porém enxerguei essa necessidade. Sobre o "entendimento real do assunto", que vai além dos cálculos, eu peço desculpas se deixou a desejar, mas sinceramente essas explicações holísticas a respeito da matemática do algoritmo são, de certa forma, subjetivas. Digo isso pois a própria definição dos algoritmos de machine learning - muitas vezes - não é pautada do conceito chave para depois desenvolver a matemática, e sim no contrário (experimentação, testes e ajustes empíricos primeiro, depois uma "tentativa" de explicação do conceito). Eu diria que esta é a natureza atual dessa ciência, e inclusive esse ponto tem sido matéria de muita discussão e crítica entre cientistas, pela falta de provas rigorosas de conceitos em aplicações (o machine learning atual é muito mais empírico do que técnico, cientificamente falando). Já que estamos falando de ganho de informação, esse paper foi um dos maiores responsáveis pela difusão dessa técnica mostrada na aula: hunch.net/~coms-4771/quinlan.pdf, mas podemos ver que não há uma explicação clara e objetiva sobre o que é esse "ganho de informação" em um sentido mais técnico. É quase que um nome para uma fórmula, e sua compreensão sobre a fórmula é que trará a explicação. Eu tentei passar no vídeo minha compreensão sobre a fórmula. Já assisti algumas aulas de universidades como MIT e Oxford sobre algoritmos de machine learning e confesso que também fico frustrado com a falta de profundidade na explicação das ideias/conceitos. Enfim, sem querer me inocentar da responsabilidade de explicar, existe muito espaço para desenvolvimento nesse aspecto mais técnico além da matemática. Abraços
pô queria que meu professor da facul tivesse essa didática, obrigado por compartilhar esse conhecimento, salvou minha vida Muito obrigado
hoje 14/07/2020 tem 6 dislaike no video, eu fico pensando quem são essas figuras que fazem isso, o cara esta passando o conhecimento de graça e tem zé ruela que dá dislike, ah vão catar coquinho .
@@CleberCampos já passou pela cabeça de vocês que é impossível agradar todo mundo? uma didática que é boa pra vocês pode não ser boa pra outras pessoas, isso não quer dizer que o cara é um "Zé Ruela com inveja alheia"
@@mariorossattijunior5189 Penso que seria importante quem não gostou comentar onde está o problema, não só dar o voto negativo.
Conteúdo de altíssima qualidade! 🔥🔥🔥
Pra mim, esse vídeo foi super didático, simples e objetivo. Tudo que eu queria. O prof. da minha faculdade simplesmente copiou o exemplo do livro sem explicar nada, sozinha consegui entender os cálculos, mas faltou a explicação final, que aqui no Didática Tech foi sensacional. Nota mil!
Bacana! E qual livro seu professor usou?
Genial, você é muito didático e passou o conhecimento de forma tão tranquila que até parece fácil! Rs Obrigada por compartilhar conhecimento!
Excelente a simplicidade na explicação. Parabéns!
Muito bom heim, aprendi direitinho.
Sua explicação ficou bem melhor do que se tem nos livros. Agradeço.
Muito obrigada pela aula!!!! Sua didática é incrível.
Aula foda. Vim revisar conteúdo e acabei aprendendo mais. Gratidão!
Que aula sensacional. Parabéns pelo empenho e pela didática!
Aula top, estou no semestre estudando inteligência artificial e não chega aos pés da sua explicação, ótima didática.
Vídeo aula, incrível! Perfeitamente explicada! 👏🏻
ótimo vídeo!
Excelente aula. Parabéns pela didática!
Obrigado por ter compartilhado seu conhecimento!!
Perfeito! Suas aulas são muito boas!
Cara, seus vídeos são muito bons. Espero para que seu canal cresça muito.
impossível não entender! Vídeo excepcional.
Parabéns pela didática.
Ótima didática! Parabéns!
Você é incrível, grato
Simplesmente brilhante👏👏👏👏👏.
Cara muito obrigado, esse video fui interessante e 100% facil de entender.
Fantástico! Obrigada pela aula
Estou com planos de começar o curso de Ciencia da Computação e essas aulas tem me motivado bastante.
Excelente didática !
Muito bom. Obrigado por compartilhar.
Parabéns, excelente explicação. Continue assim. Abraços!!
Parabéns pelo trabalho, ótima didática!
Cara da aula de violão e de machine learning hahah que foda.
ué esse cara da aula de musica e tambem de ML! hahahah, excelente.
Praticamente todo músico é programador!!!
Excelente didática e conteúdo. Meus parabéns.
Excelente explicação, fiquei curioso de aprofundar no assunto
Ganhou um inscrito pro resto da vida.
É, quem sabe sabe..kkk...parábens por compartilhar!!!
Comecei a estudar ML agora e sempre achei tudo tão complicado, mas você me mostrou que com uma boa didática da pra aprender. Muito obrigado pela aula!!
Obrigada!! Muito bom colocado. Parabéns!!! Você deu uma ótima aula PARABENS!!!
Excelente. Meus parabéns e obrigado
Caros, vocês têm algum vídeo explicativo da função predict no R Studio? Como ela funciona ou se baseia? Didática de vocês sensacional. Parabéns e obrigado.
Olá! Sim, segue: th-cam.com/video/u1p2c-C2guo/w-d-xo.html
Obrigada pelo conteúdo de excelência.
Sensacional a aula. Explica muito bem!!!
Parabéns pela explicação, muito bom!
Poderia explicar a diferença do ID3 para o C4.5, o que muda?
Excelente vídeo e poderia passar o link da segunda parte Professor......?
Faz de floresta de decisão e SVM, por favor
Oi João, aqui no canal vamos postando vídeos periodicamente, mas se você quiser acelerar, temos essas aulas prontas e detalhas em nosso curso de machine learning, módulo II: didatica.tech/curso-de-machine-learning-2-com-python/
sensacional, muito obrigado!
Parabéns
Olá professor,
Parabéns pela aula.
O vídeo sobre como construir DT a partir do índice Gini está disponível? pois não encontrei
Obrigado.
Oi Willian, esse vídeo está dentro do curso pago: didatica.tech/curso-de-machine-learning-online-com-python/
Professor, gosto muito das sua aulas mas fiquei com essa dúvida, gostaria, se possível, que o senhor me explicasse. Porque no segundo exemplo da entropia a "IM" ficou com 0,65, consequentemente o "NÃO" ficou com 0,35? Não seria o certo do "SIM" ficar com 0,80? Porque o "NÃO" com apenas 1 chance em 6 ficou com 35% das oportunidades? Um grande abraço e parabéns!
Aula show! Obrigada!
Uma dúvida, eu posso criar um algoritimo para prever as outras combinações, nesse caso, vimos que a função tem o ganho de informação 1, porém podemos perceber que caso houvesse uma combinação diferente, por exemplo, alto, perto e desinteressante, poderia ocorrer um target SIM, é possível o algorítimo prever algo que ele não treinou?
Sim Jean, essa é a ideia. Na vida real os dados são imperfeitos e o algoritmo irá dar o seu melhor palpite.
Muito bom o vídeo, bem explicado! Parabéns!
Muito boa, aula!
Obrigado por compartilhar esse conhecimento
Que aula!
Muito obrigado por essa aula, me ajudou bastante. Realmente uma didática incrível, queria que meus profs fossem assim. HAHAHAH
maluco é brabo demais
Muito bom!!!!👏👏
Parabéns!
Faz um vídeo sobre a identificação de tópicos em textos com o algoritmo LDA, prfv!
os softwares na prática já realizam toda essa análise não é? parabéns, excelente aula.
Sim, mas é importante entender o que eles fazem por baixo dos panos
Genial!
Esse algoritmo em mineração de dados seria a mesma coisa que discretização baseada em entropia?
obrigado !
excelente explicação!!!!
Muito bom! Parabéns!
Excelente!
To comentando pq n posso curtir 2 vezes. Vídeo mto bom
Mt obg!!
Muito bom. grato.
Muito BOM!!!!
Demais!
estou bem interessado no curso, mas minha dúvida é: o curso vai do basico ao avançado, ou quando eu terminar o curso precisarei fazer outro para poder implementar maching learning em sistemas reais?
O curso é bastante prático, mostramos vários usos de caso em datasets reais
Terminei o ensino médio agora, e não deixei de notar que esse sistema de classificação é bem parecido com o que se vê em química, quando temos que descobrir quais as concentrações de substâncias que quando alteradas, modificam também velocidade, pra assim definir a fórmula da velocidade de reação, pelo que observei é mesma lógica certo ?
Excelente
Parabéns pelo vídeo. Gostaria de fazer uns cursos com vc, então desejo informações sobre valores, qual o contato de vcs?
Oi Valberto, os detalhes estão aqui: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
Top!!!
Muito bom. Parabéns pela explicação. Tem algum exemplo de decision tree em python?
Oi Bruno, em nosso curso mostramos vários exemplos e exercícios: didatica.tech/curso-de-machine-learning-online-com-python/
Boa tarde ! Então quanto mais balanceado mais dificil é de se fazer a classificação ? É isso ?
Sim, pois significa que não há clareza sobre o que está influenciando os resultados
bom d+
Faltou o artigo dessa metodologia para referenciar? Vou referenciar youtube? 😆
Professor, e quando nossas informações são todas quantitativas? por exemplo colunas de preços, porcentagens e área... Como poderia aplicar esse conceito para descobrir os nódulos pai e filhos?
Oi Marcio, nós mostramos isso no curso Módulo I: didatica.tech/curso-de-machine-learning-online-com-python/
parabens
Uma classificação perfeita não gera overfitting?
Boa tarde!
Gostaria de saber se vocês prestam serviços relacionados a ML. Em caso afirmativo, qual o contato?
Obrigado!
O curso do site se pagar é vitalício o acesso?
Sim
:) obg pela aula
O Ganho de informação varia de 0 a 1 também ?
Boa Aula,,, indique bibliografia
Pensam em disponibilizar o curso completo (pago) em alguma plataforma como udemy?
Olá Gilian, o curso completo já está disponível em nosso site. Segue o link: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
Os ramos são sempre binários?
Sim!
professor,em um video na web vi um cara ensinando mas sem calcular o peso, calcular GI sem peso ta certo?
Existem outras formas de se calcular o ganho de informação, mas que chegam no mesmo resultado. Se o método usado não for equivalente ao mostrado nesse vídeo, aí sim estaria errado
@ AAA sim entendi, obrigado pela atenção, vídeo perfeito!
Uai achei q tava vendo algum vídeo de teoria musical!!!
Explica demais.
print("Parabéns!")
Alguém percebeu que o único fator real de decisão era se o trabalho era interessante ou não?
Sabendo disso, o que fazemos com os dados? Eliminados as duas primeiras variáveis ou organizamos de outra maneira?
Nesse caso poderia eliminar sim. Mas em problemas reais, dificilmente uma única variável conseguirá explicar tudo sozinha
Na verdade na física a entropia não está muito longe disso. Quando estudamos física estatística a entropia é definida por essa fórmula mas a probabilidade está relacionado aos microestados possíveis no sistema.
Se o ganho de informação da variável função não tivesse sido 1, ou seja, se os dados não tivessem ficado bem classificados usando apenas essa variável, como ficaria a construção da árvore? Essa parte não ficou clara pra mim.
A explicação foi excelente, mas o exemplo não foi muito bom porque me pareceu um caso muito ideal que não mostra todos os passos.
tô aqui pelo TCC
Resumindo em python :
sol, vento, covid19 = 0, 0, True
if sol > 50.00 and vento < 50.00 and covid19 == False:
# -> praia
else:
# -> casa
Caracas, aula sensacional!
Pra treinar, eu estou tentando fazer um exercício parecido no python, mas descobri que tem algo que não tá dando certo. Eu quero contar, em uma coluna específica, os dados que contenham a palavra 'Sim'. Só que quando uso count() ele conta quantos itens tem em toda coluna. Já tentei fazer algo do tipo tabela.count('Sim') mas não tá dando certo. Enfim, rodei a playlist mas não encontrei. Se alguém puder me dar uma luz onde estou errando, serei grato**2:
import pandas as pd
dicio = {'':['Europa','Asia','EUA','Austr','Russia'],
'Custo':['Baixo','Alto','Alto','Alto','Baixo'],
'Interesse':['Medio','Medio','Alto','Alto','Medio'],
'Clima':['Frio','Frio','Frio','Calor','Frio'],
'Status':['Nao','Nao','Sim','Sim','Nao']}
tab = pd.DataFrame (dicio)
print (tab)
Et_ps = tab ['Status'].count('Sim')
Oi Wesley, Você pode contabilizar todos os valores da coluna usando tab ['Status'].value_counts()
Ou ainda contabilizar um termo específico tab['Status'].groupby('Sim').count()
@ Não funcionou, deu erro. Mas eu consegui fazer da seguinte forma:
tab2 = tab["Status"]
tab3 = tab2[tab['Status'] == 'Sim'].count()
Provavelmente não é a mais eficiente haha
Parabéns pelo vídeo amigo. Tenho algumas críticas e espero que as leve pelo lado construtivo pois gostei bastante da iniciativa. Só achei que as explicações sobre entropia e ganho de informação poderiam ser mais técnicas e organizadas, pois você começou mostrando como calcular o ganho de informação sem nem ao menos dizer pra quê servia (nesse sentido gostei mais do vídeo do Sandeco). Também acho que o exemplo escolhido poderia ser melhor, no sentido de ter pego um exemplo onde fosse necessário calcular um próximo nó na árvore (não apenas já parando na primeira camada, devido a ter alguns detalhes). Vocês dizem prezar pela didática mas confesso que fiquei um pouco decepcionado pois o ensino em termos de entendimento real do assunto (e não apenas fazer mecanicamente sem explicar bem a teoria) deixou a desejar (ao menos pra esse conteúdo de decision tree) . Confesso também que fiquei um pouco receoso em comprar o curso completo pensando em ter esse mesmo viés
Oi Marinalvo, obrigado pelo comentário. Em relação ao exemplo escolhido, fiz questão de pegar uma árvore pequena (uma camada) porque é o primeiro contato do aluno com o conceito de árvore de decisão, portanto um exemplo conciso, onde fosse possível ver tudo do início ao fim sem precisar gastar horas analisando a árvore seria uma boa forma de assimilar a informação, digerir, para depois continuar. Nas aulas subsequentes eu dou seguimento nesse assunto (quanto abordamos DT em problemas de regressão, eu faço outra camada). Quanto ao fato de explicar o que seria o ganho de informação antes de começar a calcular, eu pensei sobre isso antes de gravar a aula, porém concluí que seria difícil explicar o conceito sem que o aluno soubesse o que significava entropia, e este conceito - por sua vez - só seria bem explicando mostrando um cálculo e um gráfico. Ou seja, havia uma interdependência entre eles, uma explicação "resumida" antes de começar os cálculos acabaria ficando subjetiva e um pouco "vazia". Talvez no seu caso (que aparentemente já tinha certo background por ver outros vídeos), uma explicação prévia servisse bem, mas sinceramente acho que um aluno médio ficaria desencorajado. Eu comentei isso logo que mostrei as fórmulas, prometendo que depois de calcular iria explicar os conceitos, e de fato fiz isso. Foi uma estratégia incomum, porém enxerguei essa necessidade. Sobre o "entendimento real do assunto", que vai além dos cálculos, eu peço desculpas se deixou a desejar, mas sinceramente essas explicações holísticas a respeito da matemática do algoritmo são, de certa forma, subjetivas. Digo isso pois a própria definição dos algoritmos de machine learning - muitas vezes - não é pautada do conceito chave para depois desenvolver a matemática, e sim no contrário (experimentação, testes e ajustes empíricos primeiro, depois uma "tentativa" de explicação do conceito). Eu diria que esta é a natureza atual dessa ciência, e inclusive esse ponto tem sido matéria de muita discussão e crítica entre cientistas, pela falta de provas rigorosas de conceitos em aplicações (o machine learning atual é muito mais empírico do que técnico, cientificamente falando). Já que estamos falando de ganho de informação, esse paper foi um dos maiores responsáveis pela difusão dessa técnica mostrada na aula: hunch.net/~coms-4771/quinlan.pdf, mas podemos ver que não há uma explicação clara e objetiva sobre o que é esse "ganho de informação" em um sentido mais técnico. É quase que um nome para uma fórmula, e sua compreensão sobre a fórmula é que trará a explicação. Eu tentei passar no vídeo minha compreensão sobre a fórmula. Já assisti algumas aulas de universidades como MIT e Oxford sobre algoritmos de machine learning e confesso que também fico frustrado com a falta de profundidade na explicação das ideias/conceitos. Enfim, sem querer me inocentar da responsabilidade de explicar, existe muito espaço para desenvolvimento nesse aspecto mais técnico além da matemática. Abraços
GENTE QUE OLHO É ESSE! RSS...