NLP | Deep dive en los mecanismos de atención y red neuronal transformers | La base de GPT-3 y BERT

แชร์
ฝัง
  • เผยแพร่เมื่อ 19 ก.ย. 2024

ความคิดเห็น • 36

  • @CosasCotidianas
    @CosasCotidianas 7 หลายเดือนก่อน

    Uff mira lo que vengo a encontrar un domingo por la tarde. Gracias, me interesa mucho el tema ML y quiero aprender. Te sigo. Saludos!

  • @PLW_1994
    @PLW_1994 2 ปีที่แล้ว +2

    Muchas gracias Luis! espectacular!. Ojalá nos ayudes con un video de transformes y mecanismos de atención en imágenes!

  • @alexeiwmartinez8686
    @alexeiwmartinez8686 2 ปีที่แล้ว +1

    bien explicado, la verdad es que no entiendo porque no tiene mas visitas este video, felicidades y sigue asi!

    • @fullscan
      @fullscan  2 ปีที่แล้ว

      Gracias por el comentario!!!

  • @danielpaolocordovatorres9328
    @danielpaolocordovatorres9328 3 ปีที่แล้ว +1

    Es un increible la forma en que condesaste todo me ayudo bastante siempre se agradece este tipo de contenido

    • @fullscan
      @fullscan  2 ปีที่แล้ว

      Genial! Gracias

  • @cristianmorilla8631
    @cristianmorilla8631 3 ปีที่แล้ว +2

    Realmente muy impresionante la capacidad que tenes para simplificar conceptos y enseñar. Fantástico video te mereces miles de suscriptores mas, pero por ahora sumas uno mas ! muchas gracias genial video ! lo voy a recomendar mucho !

    • @fullscan
      @fullscan  2 ปีที่แล้ว

      Thaaaanks!

  • @rasth4
    @rasth4 3 ปีที่แล้ว +1

    Muchas gracias por estos videos. Tecnicos que es lo que necesitamos algunos

    • @fullscan
      @fullscan  3 ปีที่แล้ว

      Genial, me anima a realizar mas de este tipo!

  • @neurondeep
    @neurondeep 3 ปีที่แล้ว +2

    Genial video! Espero transformers y self attention en imagenes

    • @fullscan
      @fullscan  3 ปีที่แล้ว

      Uno de los "hot-topics" de este año sin duda!

  • @robertorober7369
    @robertorober7369 3 ปีที่แล้ว +2

    Woow! Un vídeo muy condensado, con mucha información. Hay que verlo varias veces para pillar algo y buscar mas info fuera, pero se agradece. Otros youtubers habrían hecho con la misma información una serie de 20 capítulos. 8-)

    • @fullscan
      @fullscan  3 ปีที่แล้ว +1

      Gracias por el feedback! Este formato si es denso! Te gusta mas asi o con la pizarra como aqui --> th-cam.com/video/aVji_t_zibU/w-d-xo.html ?

    • @robertorober7369
      @robertorober7369 3 ปีที่แล้ว

      Perdona por haber tardado en responderte, es que me he perdido/saturado un poco del tema. Este formato de pizarra se ve mas claro y secuencial pero en la pizarra clásica había mucha mas información y estaba mas elaborada. Quizás se pueda hacer una llegar a un compromiso entre las dos , cargando a veces, cuando el tema lo requiera imagenes de "pizarras" elaboradas fuera del vídeo y supercompletas.

  • @jocalvo
    @jocalvo 3 ปีที่แล้ว +1

    Tenga su like buen hombre! Llevaba dos dias entendiendo el tema!!! Muchas gracias!!

    • @fullscan
      @fullscan  3 ปีที่แล้ว

      Genial John!

    • @hantondark8876
      @hantondark8876 2 ปีที่แล้ว

      llegaste a programar transformers compañero ?

  • @juliz2
    @juliz2 5 หลายเดือนก่อน

    bastante buena la parte de la explicacion no cabe duda que el esfuerzo debió de haber sido muy grande en este tema, creo que a la parte de la programacion si se le debio de haber dedicado al menos unas 2 horas de explicacion en otro video

  • @pverd1
    @pverd1 4 ปีที่แล้ว +1

    Genial Luis, cómo siempre! Un abrazo!

    • @fullscan
      @fullscan  4 ปีที่แล้ว

      Gracias pablo, me alegro!

  • @erickcardozogalvez6229
    @erickcardozogalvez6229 3 ปีที่แล้ว +1

    Excelente video, gracias!

    • @fullscan
      @fullscan  3 ปีที่แล้ว

      Gracias Erick!! :)

  • @javierlamar7447
    @javierlamar7447 3 ปีที่แล้ว +1

    Podría hacer un comentario acerca de cómo va la aplicación de estas redes en video (secuencias de imágenes, etc.). Es que en el ámbito del NLP, al tener un diccionario de palabras, tenemos un espacio finito (discreto) en los datos, mientras que en video hay una inmensa combinatoriedad en los datos…, es decir, es prácticamente imposible tener todas las imágenes que podría captar una cámara fija.

    Muy Buena explicación!!!. Gracias!!!!

    • @fullscan
      @fullscan  3 ปีที่แล้ว

      Gracias Javier por el comentario, lo apunto para la siguiente entrega de Dr.Dato! Ya van unas cuantas peticiones en esta linea!

    • @javierlamar7447
      @javierlamar7447 3 ปีที่แล้ว

      @@fullscan Gracias a usted ....muy atento en dedicar tiempo a responder.....gracias!!!

    • @hantondark8876
      @hantondark8876 2 ปีที่แล้ว

      @@javierlamar7447 aplicaste transformers para generar texto compañero ?

  • @cristhian4513
    @cristhian4513 4 ปีที่แล้ว +1

    sigue con màs temas de nlp por favor :)

    • @fullscan
      @fullscan  4 ปีที่แล้ว

      asi se hará!

  • @cristhian4513
    @cristhian4513 4 ปีที่แล้ว +1

    me ha encantado, me vi todo, rotanos el blog de la explicacion :)

    • @fullscan
      @fullscan  4 ปีที่แล้ว

      Oye pues lo de subir las notas a github no es mala idea no?

    • @cristhian4513
      @cristhian4513 4 ปีที่แล้ว

      No, esta genial :)

  • @jaglame
    @jaglame 3 ปีที่แล้ว

    Excelente explicación, falta más contenido de este tipo en español.
    Pregunta:
    ¿El WuDao 2.0 también está basado en transformers?

    • @jaglame
      @jaglame 3 ปีที่แล้ว

      Gracias!

    • @fullscan
      @fullscan  3 ปีที่แล้ว +1

      Hola, si WuDao está en la misma linea que switch transformers de Google que utiliza el paradigma MOE, aqui en este video en la ultima parte hablamos de esta arquitectura tan interesante --> th-cam.com/video/5SZWEy_E42I/w-d-xo.html

  • @electriclemonopro
    @electriclemonopro 4 ปีที่แล้ว +1

    🙋