A primeira REDE NEURAL PROFUNDAðŸĪ–: Perceptron Multicamada ðŸĶŋ | Redes Neurais e Deep Learning 06

āđāļŠāļĢāđŒ
āļāļąāļ‡
  • āđ€āļœāļĒāđāļžāļĢāđˆāđ€āļĄāļ·āđˆāļ­ 30 āļ•.āļ„. 2024

āļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ • 41

  • @kymiekymi2052
    @kymiekymi2052 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +2

    Muito bom mesmo!!! ParabÃĐns pelo trabalho exposto.

    • @UniversoDiscreto
      @UniversoDiscreto  āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

      Muitíssimo obrigado

  • @joseyrikes9686
    @joseyrikes9686 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    melhor conteÚdo do youtube sobre redes neurais com toda a certeza

  • @arthurbaia1215
    @arthurbaia1215 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +2

    Seus videos sÃĢo excelentes Lucas, muito obrigado por disponibliza-los no yt.

  • @MateusPedro-k2f
    @MateusPedro-k2f āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Amei a tua aula, logo do princípio, ÃĐs excelentíssimo.

  • @pedrogomeshipnose
    @pedrogomeshipnose 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

    Nem assisti ao vídeo ainda, mas jÃĄ dei like sÃģ pela organizaçÃĢo da descriçÃĢo, parabÃĐns.
    Dito isso, agora vou assistir rsrs

  • @jonasoliveira1143
    @jonasoliveira1143 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +4

    CÊ tÃĄ de brincadeira comigo! hahaha
    Eu tÃī em choque com a coincidÊncia!
    Eu estava aqui fazendo meu trabalho de neurocomputaçÃĢo de boa, aí chegou a notificaçÃĢo do canal, pensei - "vÃī conferir".
    Resumo da Ãģpera, eu tÃī aplicando MLP nesse dataset NESTE momento! hahahaha

    • @UniversoDiscreto
      @UniversoDiscreto  3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +2

      hahahahahahaha tÃĄ brincando
      dÃĄ um oi pra cÃĒmera, estou te vigiando =P

  • @MariaEduardaAlvesBarnabe
    @MariaEduardaAlvesBarnabe 11 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Cara! Tu me ajudou muito no meu tcc. Muito bom!

  • @LeviSoares-m1i
    @LeviSoares-m1i 6 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Que aula show

  • @carloscosta4713
    @carloscosta4713 5 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    ParabÃĐns pelo belíssimo trabalho. Mais um inscrito no canal!!!

  • @cronosbr887
    @cronosbr887 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

    Vídeo excelente cara, muito obrigado! Me ajudou muito com o trabalho da faculdade e sua didÃĄtica ÃĐ foda man, parabÃĐns!

  • @Aprendendopontocom
    @Aprendendopontocom 6 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    ParabÃĐns pelo Ãģtimo trabalho!

  • @miltonborges7356
    @miltonborges7356 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    excelente

  • @combathaker
    @combathaker 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Obrigado sempre pela disposiçÃĢo de passar conhecimento, sempre ajuda muito essas aulas em portuguÊs ainda.

  • @ronpdf2084
    @ronpdf2084 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    show de bola. otimas explicaçoes!

  • @Marcelo-tz6du
    @Marcelo-tz6du 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    gosto muito de ver vídeos programando, ajuda muito

  • @blancasosa9352
    @blancasosa9352 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Muito obrigada pelo seu video!!! nunca pensei que ia encontrar um material assim, explicado, por um Prof. Dr. assim de maneira detalhada e com base matemÃĄtica. e Python. Parabens!! y muito obrigada, Obrigada Universo Discreto, abriu minha mente e uniu o que queria unir. Tudo de bom!! sim, vou enviar um presentinho, muito legal, de outras culturas. Valeu!!! Dr. Lucas

    • @UniversoDiscreto
      @UniversoDiscreto  2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

      Obrigado pelo carinho =)

  • @CalangoBit
    @CalangoBit 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Ótimas explicaçÃĩes! Obrigado!

  • @vick-santoss
    @vick-santoss 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Excelente aula! 👏🏞👏🏞

  • @fillescoladeroboticistascu8100
    @fillescoladeroboticistascu8100 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    ParabÃĐns pelos vídeos!

  • @renandomingues2279
    @renandomingues2279 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    muito obrigado! ajudou mto de verdade.

  • @jeffersonferreira43
    @jeffersonferreira43 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    aula boa, passa e vocÊ nem percebe que se foram uma hora

  • @rodrigotrindade5026
    @rodrigotrindade5026 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Posso estar enganado. Mas acredito que o z-score nÃĢo normaliza os dados. A propÃģsito, excelente aula.

  • @holandonhdunto6808
    @holandonhdunto6808 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    Qual e a diferença da rede mult perceptron e rede neural deep learning, to com uma duvida, ja que dizem que a mult perceptron tem um bug chato da rede explodir produzir numeros infinitos e tambem parar de treinar por calsa da derivada que reduz o valor e suporta no maximo 3 camadas. E pelo que vejo rede mult percepron parece ser identica a deep learning.

    • @fabianosantana2357
      @fabianosantana2357 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

      Muito boa sua colocaçÃĢo, neste caso utilizamos o perceptron multicamada(pm) no final, e antes o deep learning utilizando redes convolucionais e em seguida, redes de aglutinaçÃĢo, aí entÃĢo o pm. Caso nÃĢo utilizemos as rc e ra, o valor dos pesos serÃĢo estratosfÃĐricos, um exemplo: imagine 3 camadas de 784 neurÃīnios ÃĐ uma camada de saída de 10 neurÃīnios (784x784x784x784x10=3.778.019.983.360 pesos)

    • @holandonhdunto6808
      @holandonhdunto6808 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

      @@fabianosantana2357 É imagina uma rede desse tamanho, acho que nunca iria aprender porque iria torrar o computador antes, eu tentei fazer uma rede do zero com java script e o maior problema alÃĐm da instabilidade e a taxa de aprendizagem, se a taxa for alta de mais a rede explode e se for baixa de mais a rede demora a calcular, basicamente para tentar contornar esse problema acabei reduzindo uma fraçÃĢo da taxa de aprendizagem a cada explosÃĢo, e reiniciava o calculo do zero.
      Exemplo uma rede para XNOR com 2 camadas ocultas:
      def LRelu(value):
      return max(value,value*0.1)
      def Linear(value):
      return value
      def Rede(input):
      x = input
      camada1 = [0,0]
      camada2 = [0]
      camada1[0] = LRelu((x[0] * 1.1963943945988964)+(x[1] * -2.2891299183900764)+(2.289161325669511))
      camada1[1] = LRelu((x[0] * 1.9394895637234917)+(x[1] * -2.9188329706549516)+(0.9876820266284383))
      camada2[0] = Linear((camada1[0] * -1.0132227616638183)+(camada1[1] * 1.1321663282856993)+(1.2088385065264189))
      return camada2
      Ou uma rede para XNOR com 5 camadas ocultas de 3 neuronio:
      def Rede(input):
      x = input
      camada1 = [0,0,0]
      camada2 = [0,0,0]
      camada3 = [0,0,0]
      camada4 = [0,0,0]
      camada5 = [0,0,0]
      camada6 = [0]
      camada1[0] = LRelu((x[0] * 1.1448775840076473)+(x[1] * -1.6078377130925017)+(0.8580728088182978))
      camada1[1] = LRelu((x[0] * 0.9095601211199668)+(x[1] * -0.13113147028744954)+(0.20678793069539747))
      camada1[2] = LRelu((x[0] * 0.858452652774856)+(x[1] * -0.1742875863748043)+(0.143477742195115))
      camada2[0] = LRelu((camada1[0] * 1.3571346012179406)+(camada1[1] * 0.28788669372152764)+(camada1[2] * 0.32966402167270775)+(0.2189920214785659))
      camada2[1] = LRelu((camada1[0] * 1.3948793429346353)+(camada1[1] * 0.33977692856111774)+(camada1[2] * 0.4563666484630919)+(0.668967834856637))
      camada2[2] = LRelu((camada1[0] * 0.7875668681125051)+(camada1[1] * 0.12124747511736403)+(camada1[2] * 0.05896550436311628)+(0.4315459176940251))
      camada3[0] = LRelu((camada2[0] * 0.9623654690547646)+(camada2[1] * 0.8835370514579622)+(camada2[2] * 0.6599944635416627)+(0.44527218166575583))
      camada3[1] = LRelu((camada2[0] * 0.5195099529345267)+(camada2[1] * 0.4931599527332543)+(camada2[2] * 0.8920050262671944)+(0.3483627688439634))
      camada3[2] = LRelu((camada2[0] * 0.7671883403490718)+(camada2[1] * 0.770689186561994)+(camada2[2] * 0.29776960093323757)+(0.131897270886586))
      camada4[0] = LRelu((camada3[0] * 0.6315310037621974)+(camada3[1] * 0.7046785709687089)+(camada3[2] * 0.7298628229341767)+(0.4800946629198886))
      camada4[1] = LRelu((camada3[0] * 0.6820750072456667)+(camada3[1] * 0.24656189848605348)+(camada3[2] * 1.0701771934096351)+(0.01752137400543766))
      camada4[2] = LRelu((camada3[0] * 0.33469851430601194)+(camada3[1] * 0.8214021697073297)+(camada3[2] * 0.7310812292898901)+(0.2619497826884738))
      camada5[0] = LRelu((camada4[0] * 0.5186805609082911)+(camada4[1] * 0.7214649544620108)+(camada4[2] * 0.2722611060811708)+(0.19205678763422626))
      camada5[1] = LRelu((camada4[0] * 0.1544245374648939)+(camada4[1] * -0.3325195850026798)+(camada4[2] * -0.08244660586604363)+(1.6333353757497115))
      camada5[2] = LRelu((camada4[0] * 0.8751096656558327)+(camada4[1] * 1.0633026573905286)+(camada4[2] * 0.3835623963055925)+(0.22115677022272492))
      camada6[0] = Linear((camada5[0] * 0.036113637599298344)+(camada5[1] * 1.5157816886408022)+(camada5[2] * 0.04758158764759078)+(-1.195980937412686))
      return camada6

    • @fabianosantana2357
      @fabianosantana2357 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

      @@holandonhdunto6808 isso ÃĐ fascinante naum? ParabÃĐns pelo trabalho

  • @Marcelo-tz6du
    @Marcelo-tz6du 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    eu queria saber apenas uma dÚvida, se eu quiser ler uma tabela nova que pode ter valores um pouco diferente da original, o standardscaler vai transformar ele baseado nos dados antigos ou apenas aplicar a funçÃĢo novamente neles?

    • @UniversoDiscreto
      @UniversoDiscreto  3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

      se eu entendi bem sua pergunta, pra cada base de dados nova vc precisa aplicar o fit_transform() de novo. ele "treina" um objeto capaz de normalizar os dados. o objeto StandardScaler() pode atÃĐ ser o mesmo, nÃĢo precisa instanciar um novo nÃĢo

    • @Marcelo-tz6du
      @Marcelo-tz6du 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

      @@UniversoDiscreto era basicamente isso mesmo, mesmo que o treinamento e a base nova tenham valores muito diferentes, a mudança vai surgir pouco efeito? Exemplo, no meu teste eu testei com taxas que variam entre 150 a 50, mas nos novos dados eles estÃĢo entre 500 a 400, ainda assim essa diferença apÃģs normalizar vai ser minimizada?:

    • @UniversoDiscreto
      @UniversoDiscreto  3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

      @@Marcelo-tz6du eu nÃĢo entendi oq vc chamou de taxa. SÃĢo os valores da base de dados? As colunas do dataframe?

    • @Marcelo-tz6du
      @Marcelo-tz6du 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

      Sim, sÃĢo os valores da coluna, mas com valores bem diferentes entre dados de teste e o novo dado para previsÃĢo

    • @UniversoDiscreto
      @UniversoDiscreto  3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

      @@Marcelo-tz6du os valores podem variar bastante pois ele "zera" em relaçÃĢo a mÃĐdia. É uma conta que envolve subtrair pela mÃĐdia e dividir pela variÃĒncia cada amostra, algo assim. E o train test split ainda "embaralha" as amostras, podendo mudar MT o teste e treino

  • @giovanniformaggio1789
    @giovanniformaggio1789 2 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    o algoritmo do backpropagation foi criado em 1974 por PAUL J. WERBOS e nÃĢo em 1986.

  • @joaobalieiro6264
    @joaobalieiro6264 11 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

    Excelente vídeo. Quando eu ficar rico com ML mando um puta pix pra vc. Uma pergunta: Como a rede calcula a acurÃĄcia durante o treinamento se vc nÃĢo deu o limiar onde ele escolhe 0 ou 1 para o output?

    • @UniversoDiscreto
      @UniversoDiscreto  11 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      Tudo jÃģia? Obrigado! Se puder assistir os vídeos quando saírem e comentar, jÃĄ ajuda muito.
      Sobre a pergunta, geralmente ÃĐ usado o limiar padrÃĢo de 0,5. A saída de uma rede neural como essa do vídeo ÃĐ uma probabilidade entre zero e um. A acurÃĄcia ÃĐ calculada em cima disso, considerando esse limiar padrÃĢo.
      Abraço!

    • @joaobalieiro6264
      @joaobalieiro6264 11 āļŦāļĨāļēāļĒāđ€āļ”āļ·āļ­āļ™āļāđˆāļ­āļ™

      @@UniversoDiscreto jÃĄ virei fÃĢ de carteirinha do canal. Vou comentar e curtir sempre que possível. Obrigado pela resposta âĪïļâĪïļ

  • @Toda_Ciencia
    @Toda_Ciencia 3 āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§ +1

    quero ver quem deu esse 1 dislike!!!

  • @TaniaBorgesBarros.Escritora
    @TaniaBorgesBarros.Escritora āļ›āļĩāļ—āļĩāđˆāđāļĨāđ‰āļ§

    ðŸĪðŸ‡Ļ🇭🇧🇷