📚 *Leitura recomendada*: - Neural Networks and Deep Learning (Michael Nielsen) neuralnetworksanddeeplearning.com/ - What Is ChatGPT Doing ... and Why Does It Work? (Stephen Wolfram) amzn.to/3DMP5Dh - The Myth of Artificial Intelligence: Why Computers Can't Think the Way We Do (Erik Larson) amzn.to/3Olonq8 - Superinteligência: Caminhos, perigos, estratégias (Nick Bostrom) amzn.to/45jGy6h - Vida 3.0: O ser humano na era da inteligência artificial (Max Tegmark) amzn.to/3QOYuSD 🌟*Seja membro* e me ajude a continuar produzindo esse tipo de conteúdo: th-cam.com/users/temcienciajoin 💰*Apoie* pelo PIX: temcienciapix@gmail.com ✉ Contato e Parceiras: contato.temciencia@gmail.com
Acrescento também: Mãos à obra: aprendizado de máquina com Scikit-Learn, Keras & TensorFlow: Conceitos, ferramentas e técnicas para a construção de sistemas inteligentes. Você compreenderá melhor se souber cálculo, álgebra Linear, probabilidade e estatística.
Sou programador a mais de 15 anos e como programador na moral já estou cansado de ver um monte de gente que não têm conhecimento prático, nem conhecimento suficiente de matemática falando de Inteligência Artificial principalmente no TH-cam Brasileiro. Mas Graças a Deus temos o nosso Professor e Doutor em Matemática pra dar um Aulão de Inteligência Artificial como deve ser ensinado. Sou muito grato pela existência desse Canal, abração Professor!
@@marcimmurim eu em algum momento falei que não pode? E por acaso sou obrigado a gostar de conteúdo ruim? Estou dando minha opinião e expondo um meu gosto pessoal e estou somente expondo um meu parecer baseado em determinados critérios. Não confunda as coisas, não estou de alguma forma provar algum ponto.
Puta merda!!! PRIMEIRA vez que vejo aqui no youtube alguém falando de rede neural e não chamando o método de gradiente de "backpropagation" e falando do teorema de aproximação universal!!! Que canal sensacional!!! Palavras não são suficientes pra descrever a satisfação!!!
@@samuelsobral7695 e o q eu falei?! Leia de novo meu comentário. Quanto ao q vc explicou, está errado. O gradiente é calculado para TODOS os parâmetros, bias e pesos, de todas as camadas, contanto que sua função de ativação atenda aos critérios do teorema de aproximação universal e seja derivável em todos os pontos. Ela tem que ser monotônica, limitada, contínua e derivável. Backpropagation justamente é retro(back)propagar(propagation) o erro que vc vê lá na camada de saída por toda a rede, camada por camada, até o início dela. Não é aproximação. O gradiente é real e facilmente calculado. Vc consegue calcular a derivada parcial da função erro em relação a todos os parâmetros, claro, se a função erro também for diferenciável, sendo possível, assim, usar qualquer método de otimização para achar o mínimo da função erro. ISSO é treinar de forma supervisionada a rede. Tem material na internet. Procura que vc acha.
@@samuelsobral7695 pra começar, vc não precisa saber qual valor "deveria ter alí". Gradiente é somente como uma função varia com a variação dos parâmetros. Vc só precisa saber como a função erro muda com a mudança de um determinado parâmetro, e isso é fácil de calcular. Função erro exemplo: E(w) = (y-d)², onde E é a função erro, w é um parâmetro qualquer da rede, y é a saída da rede e d é o valor desejado (a saída correta). Portanto, dE/dw = (y-d) * dy/dw, já que d não depende de w. Camada de saída: yn = fn(wn*in+bn), onde fn é a função de ativação da saída (camada n), wn é uma matriz dos pesos das entradas dessa camada, in são os inputs dessa camada e bn são os bias dessa camada. Então, dyn/dw = fn'(wn*in+bn)*din/dw, assumindo que o w, o parâmetro que queremos calcular a derivada, está lá numa camada interna. Nesse caso, quem é in? É a saída da camada anterior, yn-1. Então, até agora, dE/dw = (y-d) * fn'(wn*in+bn) * dyn-1/dw... agora é só continuar até chegar na camada e no parâmetro que vc quer. Faz isso com todos e vc tem a derivada da função erro no espaço N dimensional de dimensão da soma de quantos pesos e bias vc tem na rede. Pronto, minimiza essa budega e vc tem sua rede treinada. Viu como não precisa saber "o valor que deveria ter ali"?
Sou razoavelmente leigo em matemática, estou no 9° ano, mas estou significativamente adiantado em relação a turma, seu canal e alguns outros me motiva ainda mais a gostar da mesma. As I.A's são muito interessantes ainda mais tendo todo um conceito matemático envolvido, adorei o vídeo, seu canal é 10 mano!
@@felipeReisfelipereisele é mais um que não quer ser parte dessa maioria de que só se importa com tik Tok não impeça deixe ele estudar o que ele quiser e ver o que ele quiser eu tbm estou no 9 ano e adoro cálculo integral, física e filosofia
eu sou apaixonado por matemática, eu amo ver como ela está presente em tudo no nosso dia a dia, e o sei canal me fez achar tudo isso mais fascinante. Você é excelente!
Thanks professor 🙏 É possível que você tenha despertado o interesse no estudo em PHd para I.A em um simplório e humilde adulto. Obrigado mestre. Agradeço ao incrível vídeo. Continue sempre nos trabalhos que transformam o complexo em simples. Genial demais!
ปีที่แล้ว +2
Muito obrigado! É uma área muito interessante e promissora!
Quando você fez o vídeo de derivadas, pensei que seria legal abordar o gradiente descendente em outro vídeo, mas não tinha imaginado que iria fazer tão cedo. A explicação ficou bem legal. Acredito que passou uma ideia clara de que IA não é um caixa mágica como é massivamente divulgado por aí, mas sim um conjunto de técnicas matemáticas e computacionais bem consolidadas. Só acho que poderia ter comentado sobre a ReLU, já que é a função de ativação mais comum atualmente, e a entropia cruzada que é uma função de custo mais direcionada para problemas de classificação como o do exemplo, mas entendo que talvez ficasse muito pesado. Por favor, continue a fazer vídeos envolvendo matemática e ciência da computação. Motiva demais alunos da computação que muitas vezes não são apresentados a esses conceitos matemáticos com a mesma didática estimulante com a qual você os apresenta.
Pensava que inteligência artificial estivesse mais ligada a banco de dados, e que uma função seria capaz de utilizar esses dados. Redes neuras acaba introduzindo um conceito capaz de utilizar esses dados de forma eficiente. Vídeo muito interessante!
Cara eu sou biólogo e faço pesquisa na área de ecologia. Ecologia no ensino superior é a matemática disfarça, é a "economia da natureza", então acaba que a gente tem muuuitoo contato principalmente com modelos. Por exemplo um modelo de variáveis ambientais, tipo temperatura ou pH que corresponde aos dados por exemplo de número espécies que encontramos em n amostras. A parada é que a gente nao só não tem la uma base muito boa de matemática mas a gente so joga no R e torce pra dar certo, mas sempre senti que precisava entender de fato o que tava fazendo, o que era cada termo. Esse vídeo esclareceu muita coisa sobre os modelos, junto com os de cálculo básico. Pretendo me aprofundar assim que possível na matemática, obrigado!!
Daniel, que vídeo único e espetacular! A melhor explicação sobre I.A. que já vi. A sua capacidade de síntese e a profundidade com que você abrange os temas propostos é surreal! Acompanho o seu canal desde o comecinho e tenho certeza que é questão de tempo pra você ultrapassar 1mi de inscritos. Obrigado por nos transmitir toda a sua paixão pela Matemática e pela Ciência. Um grande abraço!
Cara, era essa a explicação que eu estava procurando há tempo ! ... Muuuito dez ! Parabéns e obrigado por dividir o conhecimento, como ele realmente é e não cheio de "nomes bonitos" como as linguagens de programação gostam de usar (hehehe). Eu sou formado em matemática e fico louco quando vejo alguém falando e usando os "nomes bonitos" para coisas que são equações e nada além. Só que nunca tinha visto ninguém explicar de forma tão clara e precisa. Muito bom mesmo !!! Obrigado mais uma vez por compartilhar o conhecimento !
Ótimo vídeo professor. Tive IA na faculdade de Ciência da Computação e até brincamos criando uma rede neural simples. Mas para mim, pelo menos, faltava um pouco dessa noção mais matemática. Por ser programação o foco, ficamos bastante na lógica e em como ela funciona, comentamos sobre as funções, mas você trouxe uma visão matemática diferenciada. Já me ajudou a entender mais coisas que preciso estudar, e ter um direcionamento melhor. 👍🏻
Excelente vídeo, como sempre. A questão da consciência, vista sob uma ótica apenas imanente, material, não transcende, faz supor que se determinado arranjo de matéria gera uma consciência, qualquer outro arranjo também pode gerar. Ou seja, não é possível afirmar que eu seja mais consciente que uma pedra, mas somente que tenho mais meios de expressar tal consciência do que uma pedra.
Existem outras iniciativas que procuram modelar um neurônio mais fidedigno ao que é um neurônio natural, que pode até disparar sem estímulo. Simular também a influência da glia e outras partes do cérebro também é um grande desafio. O livro "Vantagem humana", da Houzel, explora bastante o assunto com foco na densidade de neurônios nas várias partes do cérebro.
Muito bom o vídeo e uma ótima explicação sobre redes neurais! Mas infelizmente está um pouco desatualizado quando se fala de AI atualmente, já q as redes neurais evoluíram muito com conceitos de mecanismos de atenção e os transformers, q fizeram possível essa grande mudança de muitos dados pra treinar uma AI pra várias tarefas, diferente do q era anteriormente de uma AI muito boa para uma tarefa. É claro q o poder computacional foi sim importante pra essas novas ferramentas, mas esses novos desenvolvimentos dos últimos 5 anos mudaram muita coisa. Sinceramente gostaria de ver um vídeo seu indo a fundo nessas novas técnicas. Valeu!
Comecei a fazer a matéria de machine learning para engenharia elétrica, antes de começar a matéria meu prof. falou pra ler um "breve material" sobre redes neurais de 256 slides, tava bem perdido com os termos esse vídeo me ajudou muito.
Vídeo nota 10! Deixo como sugestão, para quem quer entender os pormenores sem muita complicação, as vídeo-aulas do canal "Inteligência Artifical na Prática" aqui no YT.
Ótimo vídeo professor. Um assunto que eu acharia muito legal abordar é o de análise assintótica, normalmente abordado em cursos de ciência da computação mas que envolve matemática. Fica a sugestão :)
O Neurônio Artificial seria o Perceptron. Perceptron é uma rede neural de camada única e um Perceptron de várias camadas é chamado de Rede Neural Artificial.
Matematicamente perfeito! Toda rede neural é uma IA (ou um conjunto delas), mas nem toda IA é uma rede neural, algumas se enquadram no que chamamos de sistema especialista. O esquema apresentado no video é a representação do deeplearning, ou seja, o conceito mais profundo de aprendizado de máquinas e tratamento de quantidades absurdas de dados. Acredite, isso é um elogio!
foi a melhor explicaçao que eu vi na internet sobre rede neural ref IA. seria legal se tivesse um exemplo super simples, com 10 parametros de entrada, por exemplo, explicando como estabelecer os pesos das redes ocultas/intermediarias.
O mais legal é que é quase a mesma coisa. Nós inserimos inputs, o resultado esperado, e um peso, em uma função, que tem o mesmo nome da função citada no vídeo, e funciona da mesma forma (é sério, veja como é uma função em python, é a mesma coisa!), e então colocamos ela para treinar. Obviamente este é um resumo do resumão, mas consegui explicar
Tenho que comentar: nunca assisti a algo tão simples e abrangente ao mesmo tempo sobre os fundamentos da inteligência artificial. Depois de sua explicação ficou muito mais fácil entender e navegar nesse mundo novo para aprender mais.
A matemática é espetacularmente perfeita, complexa e desafiadora!!! E você é um dos caras que mostra essas faces espetaculares da matemática. Seu conteúdo é sensacional. Obrigado!
Não sou matemático, mas sou da área de exatas (Eng. Civil). Eu amo os vídeos desse canal. Conseguem trazer conteúdo para o público leigo, sem perder a qualidade e o rigor matemático. Parabéns!
Bem impressionante a sua capacidade de esclarecer os temas, totalmente contramão do que é visto hoje na era digital, onde tudo necessita de um termo complexo. Continue o excelente trabalho professor!!!
parabéns por dominar o assunto. confesso que me perdi na explicação e não compreendi totalmente, apenas vislumbrei o quão complexo pode ser. matemática, definitivamente, não é o meu forte, apesar de reconhecer o fascínio dessa ciência
Muito bom! Parabéns! Conteúdo de RN para todos, bem explicado! As RN tem sido o grande avanço na I.A.. porém não podemos esquecer dos muitos outros métodos, como os probabilísticos (Bayes, Shannon entropy, etc.) e outras técnicas como SVM, Random Forests, GMM e outras técnicas de clusters. Sem falar da computação evolutiva, como os algoritmos genéticos para otimização, sistemas adaptativos, etc. Mas hoje em dia, quando se trata de reconhecimento de padrões, o deep learning tem sido imbatível em muitas aplicações.
Seguindo a navalha de Occam, é difícil encontrar o algoritmo "universal" simples e com máxima eficiência. A compressão de dados é um exemplo, reduzir a função de custo. A entropia de Shannon é relativa ao modelo. Modelo ruim significa pouca compressão. O que fazem hoje é misturar algoritmos (context mixing) e usar a entropia de Shannon (cross entropy) para avaliar a melhor escolha; a menor quantidade de dados para representar a informação é escolhida resultando em maior compressão de dados. O problema para se aproximar à entropia de Shannon já foi resolvida com a "codificação aritmética", agora, o melhor modelo ainda não foi descoberto pois não é computável.
Como ML engineer, tenho que dizer esse vídeo é de utilidade pública! Um dos melhores, se não o melhor vídeo sobre AI technology que assisti disponível em português! Obrigado 🙏 a ciência agradece
Interessante e vejo por esse lado também...A rede neural tem um delay (processo eletroquímico) , que nos da tempo de comparar, analisar, executar e gera esse EU único, baseado no simples fato de comparar que se resume em consciência, quanto maior o delay, maior consciência sobre as coisas...
Professor, excelente vídeo! Seguindo o tema, quem sabe um vídeo sobre métodos de feature importance em modelos de ML? Por exemplo, via SHAP Values. Parabéns pela didática.
Pra facilitar a navegação 00:15 🧠 A inteligência artificial (IA) é frequentemente mal compreendida, embora seja um tópico em alta. 01:25 🧬 IA é inspirada na biologia, especificamente na forma como os neurônios processam informações. 02:07 📐 A IA é essencialmente uma ideia matemática, e seu componente básico, o "neurônio", é uma função matemática. 03:18 💡 O poder da IA reside na organização desses neurônios em redes neurais. 04:59 🔍 Um exemplo prático de aplicação de IA é o reconhecimento de dígitos manuscritos. 05:26 🎨 A arquitetura de uma rede neural é mais uma arte empírica do que algo com motivações teóricas profundas. 06:07 ⚖️ Os valores dos neurônios são ponderações das camadas anteriores, e cada conexão tem um peso específico. 07:31 🔄 Redes neurais lineares são limitadas; para modelar situações mais complexas, é preciso introduzir termos de não linearidade através de funções de ativação. 09:11 📐 No fundo, uma rede neural é uma função matemática, e seu comportamento é determinado pelos parâmetros de pesos e vieses. 10:32 🎯 O treinamento supervisionado é o método mais comum para ajustar esses parâmetros e fazer a rede neural aprender. 10:59 🧠 A eficácia de uma rede neural é avaliada comparando os resultados obtidos com os valores esperados, geralmente usando uma função de custo. 12:06 📊 A complexidade da Inteligência Artificial (IA) está muitas vezes ligada ao volume de dados e à grande quantidade de parâmetros a serem ajustados. 13:13 📈 O método Gradiente é frequentemente usado para otimizar a função de custo, ajudando a encontrar parâmetros ideais para a rede neural. 15:04 📚 Além do aprendizado supervisionado, há outras formas de treinamento de redes neurais, como o aprendizado por reforço, que utiliza funções de recompensa e punição. 15:58 ⚠️ É crucial ter cuidado com a elaboração da função de recompensa em aprendizado por reforço, pois ela determina o comportamento final da rede neural. 16:26 🤯 Redes neurais resolvem problemas de maneira diferente dos humanos, especialmente na minimização da função de custo em aprendizado supervisionado. 16:54 🔍 As etapas intermediárias de uma rede neural podem não fazer sentido para nós, mas são eficazes para a tarefa específica para a qual foram treinadas. 17:22 🧠 Avanços em inteligência artificial não necessariamente se traduzem em compreensão do funcionamento do cérebro humano. 17:49 📚 O teorema da aproximação universal afirma que qualquer função contínua pode ser aproximada por uma rede neural. 18:15 💡 Teoricamente, é possível modelar quase qualquer coisa usando redes neurais, inclusive capacidades cognitivas humanas.
Ficou uma dúvida. Apesar de a I.A. poder adquirir inteligência igual ou maior que a humana (singularidade), até lá vai depender de alimentarmos essa "inteligência"? Então ela não tem criatividade em si, mas poderá ficar tão complexa que simulará uma singularidade?
Professor, como sempre sua didática é impecável. Mas acho q faltou o senhor dizer q as redes neurais são apenas uma técnica de IA. Elas se fundamentam essencialmente no reconhecimento de padrão, como SVM, ou mesmo KNN. Outro q vale a pena mencionar é com relação a criatividade. Aparentemente isso é uma atividade essencialmente humana, mas q com certeza merece maiores debates. Pra variar, PARABÉNS pelo vídeo simplesmente SENSACIONAL!!!!
Assisti há akgum tempo uma entrevista com o neurocientista Miguel Nicolelis em que afirmava que nunca essas ditas inteligências artificiais se equiparariam ao pensamento humano. Achei o NUNCA um pouco forte mas o cara é o CARA nessa área.
Só uma dúvida ficou em mim,o teorema que você citou no final é válido para funções de conjuntos de cardinalidade superior a R? Digo, se pegarmos uma função arbitrária de partes de partes de R para partes de partes de R,seria possível modelar essa função em uma rede neural dada uma máquina de turig teórica? Desculpe a curiosidade mas realmente fiquei em dúvida depois dessa.
Parabéns pelo excepcional trabalho. Você encadeia as ideias e conceitos de forma absolutamente clara. Isso facilita (ou mesmo possibilita) a compreensão dos assuntos que você aborda. Você pontua, muito bem cada etapa e traz as informações relevantes para chegar ao entendimento com clareza sem poluir e sem simplificar demais os assuntos. Trabalho expetacular. Mais uma vez parabéns
Uma pergunta! Se o grande problema é o volume de dados, se eu criar IAs mais específicas resolveria o problema? Por exemplo, ao invés de se criar IAs gerais que sabem muito de tudo, porque não criar IAs específicas, exemplificando (Se eu crio uma IA especialistas em matemática, português, geografia e história, por que não criar uma IA especialista só em português) isso poderia diminuir o volume de dados e ajudar em uma IA mais eficiente?
Muito legal e explicações muito claras, parabéns! Uma pergunta: na explicação sobre o funcionamento da rede neural e os métodos de aprendizagem, não se aplica utilizar a retroalimentação para melhorar os resultados, ou seja, usar os dados de output para injetar nos neurônios de input e obter melhores aproximações/resultados?
Uma dica pro canal: vídeos próximos ao cotidiano. Hoje mesmo estava pensado... Como o medidor de combustível do meu carro consegue medir, de forma estável, a quantidade de combustível no tanque? Sempre me surgem essas perguntas no meu dia a dia.
17:46 - 18:46 Vc devia falar isso pro Miguel Nicolelis. 18:53 - 19:02 Não. Inteligência emerge da consciência, mas consciência não surge da inteligência; sua fonte é outra. Consciência aumenta com mais inteligência, mas não aparece por ela em quem não a tinha antes. Podemos usar o termo 'inteligência' indistintamente para os processos de tomada de decisão dos seres animados e dos objetos inanimados, distinguindo que o verbo desse processo para o primeiro grupo é 'pensar' e para o segundo é 'processar' em função da presença ou não de consciência.
Cara seu canal é muito bom, estou assistindo os vídeos e aprendendo bastante obrigado! Conclusão sinistra essa de que um dia a IA possa despertar, com certeza será nossa maior e última invenção!
Resumo: É uma função matemática que auto-ajusta os valores internos (variáveis). Algo como um multiplexador / demultiplexador que auto-ajusta os operandos lógicos internos. Códigos fonte em C? Procure por "Karsten Kutza". Iniciante? Procure por "perceptron".
Assisti 4 horas de aula e não entendi, vi o seu vídeo e entendi, os parâmetros da função de passagem de conhecimento estão mais refinados aqui no seu vídeo.
Sou cientista de dados e médico. Faltou avisar que a função da descida do gradiente (exceto das vector machines) é descoberta pela menor derivada da equação do sistema (significando o ponto com menos erros).
Há redes neurais que são treinadas via alterações estruturais em vez de ajustes de pesos. São as Weight Agnostic Neural Network. E são treinadas usando algoritmos genéticos. O assunto daria um vídeo bem interessante. O argumento é que a maioria dos animais já nascem sabendo certas coisas sem que precisem ser treinados após o nascimento. Basta olhar uma girafinha que acabou de cair da barriga da mãe já ensaiar seus primeiros passos.
Meldels, o cara tem que estar muito motivado pra se empenhar em fazer esse tipo de vídeo, já que a repercussão nem é tão grande. Tá ganhando bem ou tem muito amor envolvido?
Ótimo programa, muito bem explicado e de forma bem didática. Porém tenho uma dúvida, e apesar de não ser relevante a dúvida para o tema, sou uma pessoa que gosta de deixar tudo muito claro nos meus estudos e tenho absoluta certeza que estou fazendo calculo errado. Gostaria de entender o motivo do total de parâmetros ser 12.175. Nos meus cálculos cheguei à 628.351 parâmetros, meu raciocínio é, Camada de Entrada (784 neurônios): Cada neurônio tem 784 pesos para as entradas e um viés. Portanto, há 784 * 784 + 784 = 616,256 parâmetros. Camada Oculta 1 (15 neurônios): Cada neurônio tem 784 pesos para as entradas da camada anterior e um viés. Portanto, há 15 * (784 + 1) = 11,785 parâmetros. Camada Oculta 2 (15 neurônios): Cada neurônio tem 15 pesos para as entradas da camada anterior e um viés. Portanto, há 15 * (15 + 1) = 240 parâmetros. Camada de Saída (10 neurônios): Cada neurônio tem 15 pesos para as entradas da camada anterior e um viés. Portanto, há 10 * (15 + 1) = 170 parâmetros. Em resumo, o total de parâmetros é: 616,256 + 11,785 + 240 + 170 = 628,351 parâmetros. Portanto, a rede neural especificada tem 628,351 parâmetros envolvidos.
Ótimo vídeo! Faltou falar da caixa preta, que o ser humano não consegue saber o que cada peso significa. E nem ajustar a rede manualmente, só com mais treinamentos.
📚 *Leitura recomendada*:
- Neural Networks and Deep Learning (Michael Nielsen) neuralnetworksanddeeplearning.com/
- What Is ChatGPT Doing ... and Why Does It Work? (Stephen Wolfram) amzn.to/3DMP5Dh
- The Myth of Artificial Intelligence: Why Computers Can't Think the Way We Do (Erik Larson) amzn.to/3Olonq8
- Superinteligência: Caminhos, perigos, estratégias (Nick Bostrom)
amzn.to/45jGy6h
- Vida 3.0: O ser humano na era da inteligência artificial (Max Tegmark) amzn.to/3QOYuSD
🌟*Seja membro* e me ajude a continuar produzindo esse tipo de conteúdo: th-cam.com/users/temcienciajoin
💰*Apoie* pelo PIX: temcienciapix@gmail.com
✉ Contato e Parceiras: contato.temciencia@gmail.com
Acrescento também: Mãos à obra: aprendizado de máquina com Scikit-Learn, Keras & TensorFlow: Conceitos, ferramentas e técnicas para a construção de sistemas inteligentes. Você compreenderá melhor se souber cálculo, álgebra Linear, probabilidade e estatística.
Para os iniciantes: How smart machines think - Sean Gerrish
Sou programador a mais de 15 anos e como programador na moral já estou cansado de ver um monte de gente que não têm conhecimento prático, nem conhecimento suficiente de matemática falando de Inteligência Artificial principalmente no TH-cam Brasileiro. Mas Graças a Deus temos o nosso Professor e Doutor em Matemática pra dar um Aulão de Inteligência Artificial como deve ser ensinado. Sou muito grato pela existência desse Canal, abração Professor!
É patético o tanto de mistificação. Enerva.
bem vindo a internet meu caro. precisa ter doutorado pra falar de qualquer tema? kkkk que moral sem lógica
@@marcimmurim eu em algum momento falei que não pode? E por acaso sou obrigado a gostar de conteúdo ruim? Estou dando minha opinião e expondo um meu gosto pessoal e estou somente expondo um meu parecer baseado em determinados critérios. Não confunda as coisas, não estou de alguma forma provar algum ponto.
Humildade rapaz
Concordo @@marcimmurim
Puta merda!!! PRIMEIRA vez que vejo aqui no youtube alguém falando de rede neural e não chamando o método de gradiente de "backpropagation" e falando do teorema de aproximação universal!!! Que canal sensacional!!!
Palavras não são suficientes pra descrever a satisfação!!!
@@samuelsobral7695 e o q eu falei?! Leia de novo meu comentário.
Quanto ao q vc explicou, está errado. O gradiente é calculado para TODOS os parâmetros, bias e pesos, de todas as camadas, contanto que sua função de ativação atenda aos critérios do teorema de aproximação universal e seja derivável em todos os pontos. Ela tem que ser monotônica, limitada, contínua e derivável. Backpropagation justamente é retro(back)propagar(propagation) o erro que vc vê lá na camada de saída por toda a rede, camada por camada, até o início dela.
Não é aproximação. O gradiente é real e facilmente calculado. Vc consegue calcular a derivada parcial da função erro em relação a todos os parâmetros, claro, se a função erro também for diferenciável, sendo possível, assim, usar qualquer método de otimização para achar o mínimo da função erro. ISSO é treinar de forma supervisionada a rede.
Tem material na internet. Procura que vc acha.
@@samuelsobral7695 pra começar, vc não precisa saber qual valor "deveria ter alí". Gradiente é somente como uma função varia com a variação dos parâmetros. Vc só precisa saber como a função erro muda com a mudança de um determinado parâmetro, e isso é fácil de calcular.
Função erro exemplo: E(w) = (y-d)², onde E é a função erro, w é um parâmetro qualquer da rede, y é a saída da rede e d é o valor desejado (a saída correta). Portanto, dE/dw = (y-d) * dy/dw, já que d não depende de w.
Camada de saída: yn = fn(wn*in+bn), onde fn é a função de ativação da saída (camada n), wn é uma matriz dos pesos das entradas dessa camada, in são os inputs dessa camada e bn são os bias dessa camada. Então, dyn/dw = fn'(wn*in+bn)*din/dw, assumindo que o w, o parâmetro que queremos calcular a derivada, está lá numa camada interna. Nesse caso, quem é in? É a saída da camada anterior, yn-1. Então, até agora, dE/dw = (y-d) * fn'(wn*in+bn) * dyn-1/dw... agora é só continuar até chegar na camada e no parâmetro que vc quer. Faz isso com todos e vc tem a derivada da função erro no espaço N dimensional de dimensão da soma de quantos pesos e bias vc tem na rede. Pronto, minimiza essa budega e vc tem sua rede treinada.
Viu como não precisa saber "o valor que deveria ter ali"?
Realmente, excelente a explanação do vídeo, sensacional. Sou formado em Eng. da Computação, e fiquei muito satisfeito com a explicação do vídeo.
Sou razoavelmente leigo em matemática, estou no 9° ano, mas estou significativamente adiantado em relação a turma, seu canal e alguns outros me motiva ainda mais a gostar da mesma. As I.A's são muito interessantes ainda mais tendo todo um conceito matemático envolvido, adorei o vídeo, seu canal é 10 mano!
Vc devia ta jogando Cs e paquerando as menininhas rapaz
@@felipeReisfelipereisele é mais um que não quer ser parte dessa maioria de que só se importa com tik Tok não impeça deixe
ele estudar o que ele quiser e ver o que ele quiser eu tbm estou no 9 ano e adoro cálculo integral, física e filosofia
Parabéns, está investindo em seu próprio cérebro.
@@Amantedoconhecimento cara, serio, va paraquenar umas meninas. Calculo e machine learning são coisas fáceis, tudo tem seu tempo
@@Amantedoconhecimento Vai jogar Minecraft, mano. Que que cê tá fazendo aki?
eu sou apaixonado por matemática, eu amo ver como ela está presente em tudo no nosso dia a dia, e o sei canal me fez achar tudo isso mais fascinante. Você é excelente!
Thanks professor 🙏 É possível que você tenha despertado o interesse no estudo em PHd para I.A em um simplório e humilde adulto. Obrigado mestre. Agradeço ao incrível vídeo. Continue sempre nos trabalhos que transformam o complexo em simples. Genial demais!
Muito obrigado! É uma área muito interessante e promissora!
Quando você fez o vídeo de derivadas, pensei que seria legal abordar o gradiente descendente em outro vídeo, mas não tinha imaginado que iria fazer tão cedo. A explicação ficou bem legal. Acredito que passou uma ideia clara de que IA não é um caixa mágica como é massivamente divulgado por aí, mas sim um conjunto de técnicas matemáticas e computacionais bem consolidadas. Só acho que poderia ter comentado sobre a ReLU, já que é a função de ativação mais comum atualmente, e a entropia cruzada que é uma função de custo mais direcionada para problemas de classificação como o do exemplo, mas entendo que talvez ficasse muito pesado. Por favor, continue a fazer vídeos envolvendo matemática e ciência da computação. Motiva demais alunos da computação que muitas vezes não são apresentados a esses conceitos matemáticos com a mesma didática estimulante com a qual você os apresenta.
E nós também somos um conjunto de variáveis matemáticas
Esse canal TEM que chegar a 1M de inscritos! É absolutamente ESPETACULAR!
Menos amigo, estamos no Brasil 😢
O número de inscritos tem crescido. Que continue assim!
Pensava que inteligência artificial estivesse mais ligada a banco de dados, e que uma função seria capaz de utilizar esses dados. Redes neuras acaba introduzindo um conceito capaz de utilizar esses dados de forma eficiente.
Vídeo muito interessante!
Cara eu sou biólogo e faço pesquisa na área de ecologia. Ecologia no ensino superior é a matemática disfarça, é a "economia da natureza", então acaba que a gente tem muuuitoo contato principalmente com modelos. Por exemplo um modelo de variáveis ambientais, tipo temperatura ou pH que corresponde aos dados por exemplo de número espécies que encontramos em n amostras. A parada é que a gente nao só não tem la uma base muito boa de matemática mas a gente so joga no R e torce pra dar certo, mas sempre senti que precisava entender de fato o que tava fazendo, o que era cada termo. Esse vídeo esclareceu muita coisa sobre os modelos, junto com os de cálculo básico. Pretendo me aprofundar assim que possível na matemática, obrigado!!
Daniel, que vídeo único e espetacular! A melhor explicação sobre I.A. que já vi. A sua capacidade de síntese e a profundidade com que você abrange os temas propostos é surreal! Acompanho o seu canal desde o comecinho e tenho certeza que é questão de tempo pra você ultrapassar 1mi de inscritos. Obrigado por nos transmitir toda a sua paixão pela Matemática e pela Ciência. Um grande abraço!
Cara, era essa a explicação que eu estava procurando há tempo ! ... Muuuito dez ! Parabéns e obrigado por dividir o conhecimento, como ele realmente é e não cheio de "nomes bonitos" como as linguagens de programação gostam de usar (hehehe). Eu sou formado em matemática e fico louco quando vejo alguém falando e usando os "nomes bonitos" para coisas que são equações e nada além. Só que nunca tinha visto ninguém explicar de forma tão clara e precisa. Muito bom mesmo !!!
Obrigado mais uma vez por compartilhar o conhecimento !
Ótimo vídeo professor. Tive IA na faculdade de Ciência da Computação e até brincamos criando uma rede neural simples. Mas para mim, pelo menos, faltava um pouco dessa noção mais matemática. Por ser programação o foco, ficamos bastante na lógica e em como ela funciona, comentamos sobre as funções, mas você trouxe uma visão matemática diferenciada.
Já me ajudou a entender mais coisas que preciso estudar, e ter um direcionamento melhor.
👍🏻
Excelente vídeo, como sempre. A questão da consciência, vista sob uma ótica apenas imanente, material, não transcende, faz supor que se determinado arranjo de matéria gera uma consciência, qualquer outro arranjo também pode gerar. Ou seja, não é possível afirmar que eu seja mais consciente que uma pedra, mas somente que tenho mais meios de expressar tal consciência do que uma pedra.
Exatamente... O universo inteiro pode ser uma única consciência
Bem vindos a Era de Utron ! Amei este
aula . Muito esclarecedor mesmo.
Sem neura e sem fobia , as AIs são
nossas parceiras nesta revolução digital .
Existem outras iniciativas que procuram modelar um neurônio mais fidedigno ao que é um neurônio natural, que pode até disparar sem estímulo. Simular também a influência da glia e outras partes do cérebro também é um grande desafio. O livro "Vantagem humana", da Houzel, explora bastante o assunto com foco na densidade de neurônios nas várias partes do cérebro.
Muito bom, vou compartilhar no meu grupo de IA e programação do Telegram pra divulgar o seu canal.
Muito bom o vídeo e uma ótima explicação sobre redes neurais! Mas infelizmente está um pouco desatualizado quando se fala de AI atualmente, já q as redes neurais evoluíram muito com conceitos de mecanismos de atenção e os transformers, q fizeram possível essa grande mudança de muitos dados pra treinar uma AI pra várias tarefas, diferente do q era anteriormente de uma AI muito boa para uma tarefa. É claro q o poder computacional foi sim importante pra essas novas ferramentas, mas esses novos desenvolvimentos dos últimos 5 anos mudaram muita coisa. Sinceramente gostaria de ver um vídeo seu indo a fundo nessas novas técnicas. Valeu!
Comecei a fazer a matéria de machine learning para engenharia elétrica, antes de começar a matéria meu prof. falou pra ler um "breve material" sobre redes neurais de 256 slides, tava bem perdido com os termos esse vídeo me ajudou muito.
O que vc entendeu disso? Nada!!
Vídeo nota 10!
Deixo como sugestão, para quem quer entender os pormenores sem muita complicação, as vídeo-aulas do canal "Inteligência Artifical na Prática" aqui no YT.
Ótimo vídeo professor. Um assunto que eu acharia muito legal abordar é o de análise assintótica, normalmente abordado em cursos de ciência da computação mas que envolve matemática. Fica a sugestão :)
O Neurônio Artificial seria o Perceptron. Perceptron é uma rede neural de camada única e um Perceptron de várias camadas é chamado de Rede Neural Artificial.
Matematicamente perfeito! Toda rede neural é uma IA (ou um conjunto delas), mas nem toda IA é uma rede neural, algumas se enquadram no que chamamos de sistema especialista. O esquema apresentado no video é a representação do deeplearning, ou seja, o conceito mais profundo de aprendizado de máquinas e tratamento de quantidades absurdas de dados. Acredite, isso é um elogio!
Aínda
@@natch6863 "ainda" o quê? 🤔
@@CarlosCastro_Gankutsuou ia do mais conhecido de o humano
Sensacional!
É o melhor video sobre o tema. Parabéns pela didática e pela pesquisa bem feita Daniel Nunes!
foi a melhor explicaçao que eu vi na internet sobre rede neural ref IA.
seria legal se tivesse um exemplo super simples, com 10 parametros de entrada, por exemplo, explicando como estabelecer os pesos das redes ocultas/intermediarias.
Melhor explicação impossível. Parabéns 👏🏼👏🏼👏🏼
O mais legal é que é quase a mesma coisa. Nós inserimos inputs, o resultado esperado, e um peso, em uma função, que tem o mesmo nome da função citada no vídeo, e funciona da mesma forma (é sério, veja como é uma função em python, é a mesma coisa!), e então colocamos ela para treinar. Obviamente este é um resumo do resumão, mas consegui explicar
Meus sinceros parabéns! Em pouco tempo cobriu o que há de mais importante e relevante na introdução sobre o tema!
A minha primeira aula hj de DL foi, exatamente, todo o assunto tratado no vídeo. Excelente!
Teu canal é uma dádiva pra quem quer aprender. Muito obrigado cara. ❤
Tenho que comentar: nunca assisti a algo tão simples e abrangente ao mesmo tempo sobre os fundamentos da inteligência artificial. Depois de sua explicação ficou muito mais fácil entender e navegar nesse mundo novo para aprender mais.
A matemática é espetacularmente perfeita, complexa e desafiadora!!! E você é um dos caras que mostra essas faces espetaculares da matemática. Seu conteúdo é sensacional. Obrigado!
Por isso são ciências *exatas* , nada é achismo.
Não sou matemático, mas sou da área de exatas (Eng. Civil). Eu amo os vídeos desse canal. Conseguem trazer conteúdo para o público leigo, sem perder a qualidade e o rigor matemático. Parabéns!
A melhor explicação já apresentada sobre IA 19:17
De tudo que já procurei sobre uma explicação só IA, este vídeo é o mais claro e bem explicado que dá para entender ❤❤❤❤❤❤
Muito bom o vídeo, tecnicamente simples sem agressões grosseiras no tema. Parabéns!
Muito inteligente , sou leigo, mas gostei da simplicidade da aula.
Gratidão!
Bem impressionante a sua capacidade de esclarecer os temas, totalmente contramão do que é visto hoje na era digital, onde tudo necessita de um termo complexo. Continue o excelente trabalho professor!!!
parabéns por dominar o assunto. confesso que me perdi na explicação e não compreendi totalmente, apenas vislumbrei o quão complexo pode ser. matemática, definitivamente, não é o meu forte, apesar de reconhecer o fascínio dessa ciência
@UniversoProgramado. Um canal que aprofunda muito esse vídeo. É um canal no nível desse aqui. Quem gosta de vídeo daqui vai gostar de lá, certeza.
Muito bom! Parabéns! Conteúdo de RN para todos, bem explicado! As RN tem sido o grande avanço na I.A.. porém não podemos esquecer dos muitos outros métodos, como os probabilísticos (Bayes, Shannon entropy, etc.) e outras técnicas como SVM, Random Forests, GMM e outras técnicas de clusters. Sem falar da computação evolutiva, como os algoritmos genéticos para otimização, sistemas adaptativos, etc. Mas hoje em dia, quando se trata de reconhecimento de padrões, o deep learning tem sido imbatível em muitas aplicações.
Seguindo a navalha de Occam, é difícil encontrar o algoritmo "universal" simples e com máxima eficiência.
A compressão de dados é um exemplo, reduzir a função de custo.
A entropia de Shannon é relativa ao modelo. Modelo ruim significa pouca compressão. O que fazem hoje é misturar algoritmos (context mixing) e usar a entropia de Shannon (cross entropy) para avaliar a melhor escolha; a menor quantidade de dados para representar a informação é escolhida resultando em maior compressão de dados.
O problema para se aproximar à entropia de Shannon já foi resolvida com a "codificação aritmética", agora, o melhor modelo ainda não foi descoberto pois não é computável.
Realmente é ótimo, estou usando esse vídeo nas minhas aulas de tecnologia e inovação para meus alunos.
Como ML engineer, tenho que dizer esse vídeo é de utilidade pública! Um dos melhores, se não o melhor vídeo sobre AI technology que assisti disponível em português! Obrigado 🙏 a ciência agradece
Ótimas explicações. Complexo de entender para quem não é da área, mas é interessante ter uma base de como funciona essas coisas tecnológicas.
Interessante e vejo por esse lado também...A rede neural tem um delay (processo eletroquímico) , que nos da tempo de comparar, analisar, executar e gera esse EU único, baseado no simples fato de comparar que se resume em consciência, quanto maior o delay, maior consciência sobre as coisas...
Professor, excelente vídeo! Seguindo o tema, quem sabe um vídeo sobre métodos de feature importance em modelos de ML? Por exemplo, via SHAP Values. Parabéns pela didática.
Incrível, a melhor explicação que já ouvi sobre RN. Parabéns!!
Thanks
Muito obrigado!
O melhor vídeo sobre o tema, fantástico!!!
Pra facilitar a navegação
00:15 🧠 A inteligência artificial (IA) é frequentemente mal compreendida, embora seja um tópico em alta.
01:25 🧬 IA é inspirada na biologia, especificamente na forma como os neurônios processam informações.
02:07 📐 A IA é essencialmente uma ideia matemática, e seu componente básico, o "neurônio", é uma função matemática.
03:18 💡 O poder da IA reside na organização desses neurônios em redes neurais.
04:59 🔍 Um exemplo prático de aplicação de IA é o reconhecimento de dígitos manuscritos.
05:26 🎨 A arquitetura de uma rede neural é mais uma arte empírica do que algo com motivações teóricas profundas.
06:07 ⚖️ Os valores dos neurônios são ponderações das camadas anteriores, e cada conexão tem um peso específico.
07:31 🔄 Redes neurais lineares são limitadas; para modelar situações mais complexas, é preciso introduzir termos de não linearidade através de funções de ativação.
09:11 📐 No fundo, uma rede neural é uma função matemática, e seu comportamento é determinado pelos parâmetros de pesos e vieses.
10:32 🎯 O treinamento supervisionado é o método mais comum para ajustar esses parâmetros e fazer a rede neural aprender.
10:59 🧠 A eficácia de uma rede neural é avaliada comparando os resultados obtidos com os valores esperados, geralmente usando uma função de custo.
12:06 📊 A complexidade da Inteligência Artificial (IA) está muitas vezes ligada ao volume de dados e à grande quantidade de parâmetros a serem ajustados.
13:13 📈 O método Gradiente é frequentemente usado para otimizar a função de custo, ajudando a encontrar parâmetros ideais para a rede neural.
15:04 📚 Além do aprendizado supervisionado, há outras formas de treinamento de redes neurais, como o aprendizado por reforço, que utiliza funções de recompensa e punição.
15:58 ⚠️ É crucial ter cuidado com a elaboração da função de recompensa em aprendizado por reforço, pois ela determina o comportamento final da rede neural.
16:26 🤯 Redes neurais resolvem problemas de maneira diferente dos humanos, especialmente na minimização da função de custo em aprendizado supervisionado.
16:54 🔍 As etapas intermediárias de uma rede neural podem não fazer sentido para nós, mas são eficazes para a tarefa específica para a qual foram treinadas.
17:22 🧠 Avanços em inteligência artificial não necessariamente se traduzem em compreensão do funcionamento do cérebro humano.
17:49 📚 O teorema da aproximação universal afirma que qualquer função contínua pode ser aproximada por uma rede neural.
18:15 💡 Teoricamente, é possível modelar quase qualquer coisa usando redes neurais, inclusive capacidades cognitivas humanas.
muito bom.! é o canal.. de fácil compreensão, expressivo belíssimo trabalho.
Sensacional, Daniel! Um vídeo com uma didática incrível de um tema que chega a ser até místico!
Video perfeito! Esperando ansiosamente pela versão em português
Ficou uma dúvida. Apesar de a I.A. poder adquirir inteligência igual ou maior que a humana (singularidade), até lá vai depender de alimentarmos essa "inteligência"? Então ela não tem criatividade em si, mas poderá ficar tão complexa que simulará uma singularidade?
Sensacional! Este vídeo tem que virar um e-book e rápido :) ... minha turma de Desenvolvimento de sistemas irá adorar ter este conteúdo para estudar!!
Professor, como sempre sua didática é impecável. Mas acho q faltou o senhor dizer q as redes neurais são apenas uma técnica de IA. Elas se fundamentam essencialmente no reconhecimento de padrão, como SVM, ou mesmo KNN. Outro q vale a pena mencionar é com relação a criatividade. Aparentemente isso é uma atividade essencialmente humana, mas q com certeza merece maiores debates. Pra variar, PARABÉNS pelo vídeo simplesmente SENSACIONAL!!!!
Assisti há akgum tempo uma entrevista com o neurocientista Miguel Nicolelis em que afirmava que nunca essas ditas inteligências artificiais se equiparariam ao pensamento humano. Achei o NUNCA um pouco forte mas o cara é o CARA nessa área.
Só uma dúvida ficou em mim,o teorema que você citou no final é válido para funções de conjuntos de cardinalidade superior a R? Digo, se pegarmos uma função arbitrária de partes de partes de R para partes de partes de R,seria possível modelar essa função em uma rede neural dada uma máquina de turig teórica? Desculpe a curiosidade mas realmente fiquei em dúvida depois dessa.
Parabéns pelo excepcional trabalho. Você encadeia as ideias e conceitos de forma absolutamente clara. Isso facilita (ou mesmo possibilita) a compreensão dos assuntos que você aborda. Você pontua, muito bem cada etapa e traz as informações relevantes para chegar ao entendimento com clareza sem poluir e sem simplificar demais os assuntos.
Trabalho expetacular. Mais uma vez parabéns
Esse canal é sensacional. Parabéns. Conteúdos de qualidade sempre.
Uma pergunta! Se o grande problema é o volume de dados, se eu criar IAs mais específicas resolveria o problema? Por exemplo, ao invés de se criar IAs gerais que sabem muito de tudo, porque não criar IAs específicas, exemplificando (Se eu crio uma IA especialistas em matemática, português, geografia e história, por que não criar uma IA especialista só em português) isso poderia diminuir o volume de dados e ajudar em uma IA mais eficiente?
Grande vídeo. Técnico e sem enganação. Coisa difícil de ver hoje em dia na internet.
Compreender o funcionamento da inteligência artificial é como desvendar um grande enigma pra mim, gostei da explicação.
Fantástico e complexo! Um jeito complexo de simplificar o que parece ser fantástico!!! Parabéns!!!! Abs
Muito legal e explicações muito claras, parabéns! Uma pergunta: na explicação sobre o funcionamento da rede neural e os métodos de aprendizagem, não se aplica utilizar a retroalimentação para melhorar os resultados, ou seja, usar os dados de output para injetar nos neurônios de input e obter melhores aproximações/resultados?
Esse foi a explicação q mais satisfes minha curiosidade. Obrigado
lembro de uma rede q fiz na facul em c para resolver o problema xor, muito legal
Uma dica pro canal: vídeos próximos ao cotidiano. Hoje mesmo estava pensado... Como o medidor de combustível do meu carro consegue medir, de forma estável, a quantidade de combustível no tanque?
Sempre me surgem essas perguntas no meu dia a dia.
Ótimo vídeo! 👏 Obrigada por postá-lo! 🙂
17:46 - 18:46 Vc devia falar isso pro Miguel Nicolelis.
18:53 - 19:02 Não. Inteligência emerge da consciência, mas consciência não surge da inteligência; sua fonte é outra. Consciência aumenta com mais inteligência, mas não aparece por ela em quem não a tinha antes. Podemos usar o termo 'inteligência' indistintamente para os processos de tomada de decisão dos seres animados e dos objetos inanimados, distinguindo que o verbo desse processo para o primeiro grupo é 'pensar' e para o segundo é 'processar' em função da presença ou não de consciência.
Muito obrigado pelo conteúdo prático e muito esclarecedor, excelente vídeo, parabéns!
Assim, permanecem agora estes três: a fé, a esperança e o amor. O maior deles, porém, é o amor. 1 coríntios 13:13 NTLH
Os vídeos do prof. Daniel sao MUITO legais e necessários nesse mar de informação inútil que nos cerca.
Cara seu canal é muito bom, estou assistindo os vídeos e aprendendo bastante obrigado! Conclusão sinistra essa de que um dia a IA possa despertar, com certeza será nossa maior e última invenção!
A teoria quântica poderia ser usada pra aprimorar o treinamento da IA?
Meu amigo, assisti ao seu vídeo com atenção. agora só quero instalar o ChatGPT no meu computador. O que devo fazer?
Parabéns pelo conteúdo. Ciência na veia 👏👏👏👏👏👏
Very nice video!
You are very good teacher😊🕊🕊🕊
Sensacional sua aula! 👏👏👏👏
Qual o papel da Teoria de Ramsey na rede neural?
Resumo: É uma função matemática que auto-ajusta os valores internos (variáveis).
Algo como um multiplexador / demultiplexador que auto-ajusta os operandos lógicos internos.
Códigos fonte em C? Procure por "Karsten Kutza".
Iniciante? Procure por "perceptron".
Excelente aula. 👏👏👏
| Didática pura! 👏👏👏 |
Fascinante o Mundo Virtual neural
Assisti 4 horas de aula e não entendi, vi o seu vídeo e entendi, os parâmetros da função de passagem de conhecimento estão mais refinados aqui no seu vídeo.
Vai ter collab com o canal @UniversoProgramado ??
Abençoar mais vidas descobrir quem eu sou
Este vídeo é uma relíquia!!! 😍
É o melhor mesmo , esse Daniel é fera!!!
Leitura recomendada:
Redes neurais, Simon haykin
Sou cientista de dados e médico. Faltou avisar que a função da descida do gradiente (exceto das vector machines) é descoberta pela menor derivada da equação do sistema (significando o ponto com menos erros).
Vídeo incrível como sempre ❤
Olha aplaudo quem entende muito sobre e quem curte matematica...Pq eu ja desisti faz tempo...Aprendo TUDO menos o que envolve calculos😢😢😢
Realmente, o mundo não será mais o mesmo, após esse vídeo! Puxa tô pasmo e arrepiado!
Que vídeo ótimo... parabéns.
Há redes neurais que são treinadas via alterações estruturais em vez de ajustes de pesos. São as Weight Agnostic Neural Network. E são treinadas usando algoritmos genéticos. O assunto daria um vídeo bem interessante. O argumento é que a maioria dos animais já nascem sabendo certas coisas sem que precisem ser treinados após o nascimento. Basta olhar uma girafinha que acabou de cair da barriga da mãe já ensaiar seus primeiros passos.
Meldels, o cara tem que estar muito motivado pra se empenhar em fazer esse tipo de vídeo, já que a repercussão nem é tão grande. Tá ganhando bem ou tem muito amor envolvido?
Ótimo programa, muito bem explicado e de forma bem didática. Porém tenho uma dúvida, e apesar de não ser relevante a dúvida para o tema, sou uma pessoa que gosta de deixar tudo muito claro nos meus estudos e tenho absoluta certeza que estou fazendo calculo errado. Gostaria de entender o motivo do total de parâmetros ser 12.175. Nos meus cálculos cheguei à 628.351 parâmetros, meu raciocínio é, Camada de Entrada (784 neurônios):
Cada neurônio tem 784 pesos para as entradas e um viés. Portanto, há 784 * 784 + 784 = 616,256 parâmetros.
Camada Oculta 1 (15 neurônios):
Cada neurônio tem 784 pesos para as entradas da camada anterior e um viés. Portanto, há 15 * (784 + 1) = 11,785 parâmetros.
Camada Oculta 2 (15 neurônios):
Cada neurônio tem 15 pesos para as entradas da camada anterior e um viés. Portanto, há 15 * (15 + 1) = 240 parâmetros.
Camada de Saída (10 neurônios):
Cada neurônio tem 15 pesos para as entradas da camada anterior e um viés. Portanto, há 10 * (15 + 1) = 170 parâmetros.
Em resumo, o total de parâmetros é:
616,256 + 11,785 + 240 + 170 = 628,351 parâmetros.
Portanto, a rede neural especificada tem 628,351 parâmetros envolvidos.
Ótimo vídeo!
Faltou falar da caixa preta, que o ser humano não consegue saber o que cada peso significa.
E nem ajustar a rede manualmente, só com mais treinamentos.
Excelente