Hola, he escuchado el podcast, y enlazedo en twitter :_ D, está muy interesante. Saliendome del tema, la web donde está publicado no tiene control de volumen y no veo como decírselo a los de 480, es un poco engorroso por que está grabado muy alto, como debe ser, y tengo que bajar el audio general, por lo que no escucho las notificaciones del sistema. ¿Podrías decírselo? Gracias. También les pase el enlace en las comunidades online donde me suelo mover :D toy deseando salga el siguiente...
Aprendí sobre redes neuronales en la uni y desde entonces no he tenido la oportunidad de usarlo en mi trabajo actual. Gracias a estos caramelos divulgativos tan bien hechos mantenerme informada sobre los avances en este campo es siempre un placer. Gran trabajo! ❤
Este canal es puro oro. En su día cuando estaba en la carrera ya hice mi TFG sobre object detection con deep learning gracias a ti. Ahora estoy estudiando un máster en Computer Vision. Nunca pares de divulgar, tu contenido es único.
Por fin pude entender eso Query, Key y Value. Llevaba mucho tiempo intentando comprender a qué correspondían esos vectores y por qué funcionaban así. Mil gracias.
Suelo seguir canales extranjeros de ciencia/ingeniería con millones de seguidores. He de decir que éste no tiene absolutamente nada que envidiarles por calidad de animaciones, claridad en las explicaciones e interés de contenidos. Me alegra mucho encontrar contenidos de calidad españoles en la red.
Justo a tiempo para verlo en mi hora de almuerzo. Increíble contenido, sueño con el momento de mi vida donde tenga un profesores que explique como tu 😁
Este video ha llegado en el mejor momento posible, estoy empezando mi TFG que trata NLP. Y me ha servido muchísimo para tener un concepto sobre lo que son los Transformers, y su funcionamiento. Gran video y gracias por explicarlo de una forma tan entendible!
Llegué a éste canal queriendo aprender a programar una red neuronal sin saber nada de código. Y gracias al gran maestro logré ( con sus códigos ) hacer funcionar mi propio proyecto. Creo que muchos esperamos un código de transformes ( como el de las rosas ) Desde ya muchas gracias por lo que le has hecho a esta gran comunidad. Que el éxito te acompañe siempre hermano! Saludos desde Argentina
Aunque no entienda gran parte de lo que dices, no deja de ser espectacular recibir información de tan buena calidad! por favor no dejes de crear contenido como este Bro, gracias por brindar un espacio en youtube tan enriquecedor.
Impresionante la manera tan sencilla que tienes para explicar algo tan complejo. Vengo de estar leyendo el paper Attention is all you need sin tener mucha idea de redes neuronales, y con tu video he entrado en contexto sin problema. Seguiré viendo tus videos sobre Transformers y RNN para situarme, espectacular
He visto tu video publicitado varias veces en portada de TH-cam pero no lo he iniciado aún. Habían otros que me han llamado más la a tención. Pero lo acabaré viendo, doy fe de ello
Mi proyecto de titulación de maestría es sobre el análisis de LOGS en dispositivos POS para identificar problemas, y se basa en esto, muchas gracias me ayudas a comprender más el tema
Ya. Pensando, es posible hacer un "sintetizador" o IA que pueda conseguir a través del silabario, generar palabras, luego, de eso hacer que genere tantas posibles que prácticamente se adelante a las posibilidades del mismo idioma y hacer que se pueda derivar a algo como generar dialectos artificiales (como un generador de idiomas). Añadiendo que se podría entrenar con sílabas, también con símbolos de otros idiomas, y ver toda sus extensiones, e incluso códigos o símbolos y sus complejas variables al punto (fantástico de: hacer que la IA pueda desarrollar, aprender, y reconocer idiomas perdidos en el tiempo (e incluso 👽). Sería divertido ver tal capacidad.
Es la explicacion mas clara que he visto sobre este tema hasta el momento. El material visual y la manera en que expresas las ideas es impecable. Mil gracias
RESUMEN Premisa: Redes neuronales sencillas para analizar y generar diferentes patrones de datos: espaciales para imágenes, recurrentes para textos... Redes neuronales recurrentes: se encadena una secuencia de conceptos (una frase) agregando el valor del anterior al siguiente. Problema: conforme se alarga la cadena, las palabras anteriores pierden valor hasta olvidarse. Aparecen los transformes: Mecanismos de atención: estudiar la relación de las palabras sin importar su distancia en la cadena. Se entrena a dos redes neuronales sencillas para calcular dos descripciones en forma de vectores: Vector Key(identificador): identifica las características la palabra. Vector Query(deseo): identifica las características que busca la palabra. Se calculan la Atenciones: la compatibilidad de la dirección del vector Query de cada palabra con las direcciones del vector Key de las demás. Otra red neuronal calcula el vector Valor de cada palabra, representado de forma multidimensional. Por cada palabra se multiplica su Atención hacia las demás por los vectores Valor de éstas y se hace la media. Dando un vector Output. De ésta manera se contextualiza cada palabra en relación a las demás sin importar su distancia en la cadena, solucionando el problema del olvido Detalles: Las compatibilidades de los vectores Key y Query se pueden representar en una Matriz de Atención.
Buenas Noches saludos tengo interes en conocer sobre AI y los vehiculos autonomos o "Drones" agradezco que puedas incluir sobre este tema en especial al reconocimiento de estructuras y quizas algo mas... gracias anticipadas
El paper es súper difícil de entender a la primera e incluso segunda lectura, pero tú lo has explicado muy bien y sencillo de comprender, like y suscrito.
Me encantan tus vídeos bro! Saludos desde Perú :') tienes muy buena info, ojalá hubiera un listado de las IA que has explicado y qué hace cada una de ellas, para ir al video y profundizar, ya que tienes un amplio contenido y como estudiante me gustaría usarlas para investigación
Nah, pangolín es una palabra de baja entropía. Por ahí no se va muy lejos, hay palabras de alta entropía y para darles utilidad no sirven los diccionarios de uso, hay que tirar de semántica etimológica y pragmática. Y ahí, querido amigo, no hay 'nadie' 😉 que pilote. Estupendo trabajo como de costumbre. 💪
Carlos estoy estudiando justamente producto escalar y otras cosas varias y me das motivacion al saber que eso mismo que en papel hace doler la cabeza, es tan util y vital en algo tan avanzado y nuevo como los transformers. Abrazo desde Argentina :)
Este vídeo ya tiene un año pero sigue siendo muy interesante reflexionar sobre los mecanismos de atención. Por cierto, sería interesante explicar como se pueden utilizar los mecanismos de atención y/o los transformers en análisis de imagen.
Me gustaría ver como se toman estos transformers mi valoración a tu Video, cuando es 1 palabra que dice tanto: ALUCIFLIPO! :) De verdad, no solo lo documentados y bien explicados que están tus vídeos es algo digno de admiración. La edición que les metes reflejan un trabajo brutal… solo puedo decirte Gracias por semejante nivel de entrega y dedicación.
Me encantan tus vídeos! Gracias a mi novio que empezó a ponérmelos he podido descubrir las implicaciones que la inteligencia artificial tiene para el mundo de la ciencia y la medicina, y en general para todo. Muchas gracias 🥰
Me gusta mucho que leas novedades de papers y los expliques de manera sencilla y entendible. Haber si públicas más contenido sobre eso. Saludos. Gracias gracias gracias
► Serie Introducción al NLP y Transformers (DotCSV)
⭐Parte 1 - th-cam.com/video/Tg1MjMIVArc/w-d-xo.html - Introducción a Tokens.
⭐Parte 2 - th-cam.com/video/RkYuH_K7Fx4/w-d-xo.html - Introducción a Embeddings.
🌟Parte 4 - th-cam.com/video/xi94v_jl26U/w-d-xo.html - Introducción a Transformers. [NEW!]
Me topé por primera vez con Transformers en un paper que se llama “Attention is all you need”🤣. Tú también ? Saludos 🖖
Mierd acabo de terminar el vídeo del todo y ya hablas de ese paper hahah
Hola, he escuchado el podcast, y enlazedo en twitter :_ D, está muy interesante.
Saliendome del tema, la web donde está publicado no tiene control de volumen y no veo como decírselo a los de 480, es un poco engorroso por que está grabado muy alto, como debe ser, y tengo que bajar el audio general, por lo que no escucho las notificaciones del sistema. ¿Podrías decírselo? Gracias.
También les pase el enlace en las comunidades online donde me suelo mover :D toy deseando salga el siguiente...
Hola asesoras sobre la compra de criptomonedas?
9:46 carlos de verdad tu inventaste eso?
¡Gracias!
increible como siempre. Me duele la cabeza de pensar el trabajo que lleva hacer tantas animaciones y edicion
INTELIGENCIA ARTIFICIAL xd
En realidad el
@@manuelantoniodiazflores8519 eso venía a contestar jajajajaj
eso depende de las herramientas que poseen, en Perú solo hay paint 🤣🤣🤣
@@luisor5121 consulta, con que herramientas hace las animaciones, sabes ?
Esta parte de mi vida, está pequeña parte, se llama felicidad.
De optimus prime del planeta cybertron.
@@darkbots5900 * Eso es de En Busca de la Felicidad
¡Gracias!
cuando alguien diga que la magia no existe, le encajas este video
Aprendí sobre redes neuronales en la uni y desde entonces no he tenido la oportunidad de usarlo en mi trabajo actual. Gracias a estos caramelos divulgativos tan bien hechos mantenerme informada sobre los avances en este campo es siempre un placer. Gran trabajo! ❤
Este canal es puro oro.
En su día cuando estaba en la carrera ya hice mi TFG sobre object detection con deep learning gracias a ti. Ahora estoy estudiando un máster en Computer Vision.
Nunca pares de divulgar, tu contenido es único.
El video más esperado en la historia de este canal!!
Por fin pude entender eso Query, Key y Value. Llevaba mucho tiempo intentando comprender a qué correspondían esos vectores y por qué funcionaban así. Mil gracias.
Impecable! toda la comunidad de NLP de Argentina lo agradece mucho!
Suelo seguir canales extranjeros de ciencia/ingeniería con millones de seguidores. He de decir que éste no tiene absolutamente nada que envidiarles por calidad de animaciones, claridad en las explicaciones e interés de contenidos. Me alegra mucho encontrar contenidos de calidad españoles en la red.
Muy de acuerdo tocayo
Justo a tiempo para verlo en mi hora de almuerzo. Increíble contenido, sueño con el momento de mi vida donde tenga un profesores que explique como tu 😁
De la guerra de los decepticons
Muchas gracias, super la explicación
Este video ha llegado en el mejor momento posible, estoy empezando mi TFG que trata NLP. Y me ha servido muchísimo para tener un concepto sobre lo que son los Transformers, y su funcionamiento. Gran video y gracias por explicarlo de una forma tan entendible!
Por que son autobots y Decepticons
Llegué a éste canal queriendo aprender a programar una red neuronal sin saber nada de código. Y gracias al gran maestro logré ( con sus códigos ) hacer funcionar mi propio proyecto.
Creo que muchos esperamos un código de transformes ( como el de las rosas )
Desde ya muchas gracias por lo que le has hecho a esta gran comunidad. Que el éxito te acompañe siempre hermano! Saludos desde Argentina
Autobots
Estupendo como siempre! Las animaciones tremendas. Gran video, si señor! 👏🏼
muy buen video, las explicaciones me resultaron super útiles
Aunque no entienda gran parte de lo que dices, no deja de ser espectacular recibir información de tan buena calidad! por favor no dejes de crear contenido como este Bro, gracias por brindar un espacio en youtube tan enriquecedor.
Muchas gracias Dot, el vídeo es muy divulgativo. Has conseguido explicar algo muy complicado de manera sencilla. Con ganas de ver el siguiente.
Impresionante la manera tan sencilla que tienes para explicar algo tan complejo. Vengo de estar leyendo el paper Attention is all you need sin tener mucha idea de redes neuronales, y con tu video he entrado en contexto sin problema. Seguiré viendo tus videos sobre Transformers y RNN para situarme, espectacular
La guerra de autobots y Decepticons
Increíble!!! No puedo esperar a los próximos videos. Es hiper interesante, y tan bien explicado como siempre
Carlos, sinceramente creo que es el mejor vídeo que has hecho hasta ahora. A ver si haces algún vídeo jugando con transformers 😉
Autobots
@@darkbots5900si ay que es una franquicia de Transformers.
He visto tu video publicitado varias veces en portada de TH-cam pero no lo he iniciado aún. Habían otros que me han llamado más la a tención. Pero lo acabaré viendo, doy fe de ello
El mejor canal de IA que conozco, y el plus de ser en español, gracias por tanto.
buenisimo Carlos muy chulo y excelentemente explicado. me gusto la parte grafica de 100 pies humano jaja
4:26 BotCSV insultando a la raza humana, confirmado
Carlos es un robot XDDDD
th-cam.com/video/uT17W8CmX4g/w-d-xo.html
Transformers
Mi proyecto de titulación de maestría es sobre el análisis de LOGS en dispositivos POS para identificar problemas, y se basa en esto, muchas gracias me ayudas a comprender más el tema
Yo: Este video me interesa mucho vamos a verlo y prestar atención.
Also Yo: Mira, tiene el Coockie Clicker de fondo como yo 12:31
+1
Excelente video Dot, esperando con ansias la segunda parte
Excelente, espero con ansias el evento. ¡Gracias! :)
Que bueno tener alguien tan generoso que nos enseña todo esto de manera gratuita
Buenísima explicación. Gracias Dot Csv!
Excelente video, esperando la segunda parte!!
La matriz de atención es muy similar a la de correlaciones. Genial como todos tus videos.
Con optimus
Ya. Pensando, es posible hacer un "sintetizador" o IA que pueda conseguir a través del silabario, generar palabras, luego, de eso hacer que genere tantas posibles que prácticamente se adelante a las posibilidades del mismo idioma y hacer que se pueda derivar a algo como generar dialectos artificiales (como un generador de idiomas). Añadiendo que se podría entrenar con sílabas, también con símbolos de otros idiomas, y ver toda sus extensiones, e incluso códigos o símbolos y sus complejas variables al punto (fantástico de: hacer que la IA pueda desarrollar, aprender, y reconocer idiomas perdidos en el tiempo (e incluso 👽). Sería divertido ver tal capacidad.
Si. Explicar el positional encoding, por favor 👍🏼
Muy bueno Carlos, esperamos con ansias la segunda y sucesivas lecciones. Fabuloso como siempre lo mejor en castellano.
Saludos!
no se nada de programación pero estos videos me encantan.
Es la explicacion mas clara que he visto sobre este tema hasta el momento. El material visual y la manera en que expresas las ideas es impecable. Mil gracias
La calidad de tu contenido es de lujo... gracias
Increiblemente bueno!!!. Enhorabuena por semejante trabajo.
buenos videos! que software usas para editar?
Muy buen vídeo! Buena calidad y muy interesante, como siempre :) Se nota el trabajo que lleva detrás.
Un vídeo tremendamente útil para entender esta tecnología. Gracias!
Gracias!!!, me solucionaste un pocoton de horas, de leer y no entender, pero que con lo tuyo es fantástico para hacer mas fácil la vida
A la espera de la 2da parte!!
RESUMEN
Premisa:
Redes neuronales sencillas para analizar y generar diferentes patrones de datos: espaciales para imágenes, recurrentes para textos...
Redes neuronales recurrentes: se encadena una secuencia de conceptos (una frase) agregando el valor del anterior al siguiente.
Problema: conforme se alarga la cadena, las palabras anteriores pierden valor hasta olvidarse.
Aparecen los transformes: Mecanismos de atención: estudiar la relación de las palabras sin importar su distancia en la cadena.
Se entrena a dos redes neuronales sencillas para calcular dos descripciones en forma de vectores:
Vector Key(identificador): identifica las características la palabra.
Vector Query(deseo): identifica las características que busca la palabra.
Se calculan la Atenciones: la compatibilidad de la dirección del vector Query de cada palabra con las direcciones del vector Key de las demás.
Otra red neuronal calcula el vector Valor de cada palabra, representado de forma multidimensional.
Por cada palabra se multiplica su Atención hacia las demás por los vectores Valor de éstas y se hace la media. Dando un vector Output.
De ésta manera se contextualiza cada palabra en relación a las demás sin importar su distancia en la cadena, solucionando el problema del olvido
Detalles:
Las compatibilidades de los vectores Key y Query se pueden representar en una Matriz de Atención.
Buenas Noches
saludos tengo interes en conocer sobre AI y los vehiculos autonomos o "Drones" agradezco que puedas incluir sobre este tema en especial al reconocimiento de estructuras y quizas algo mas...
gracias anticipadas
Grandiosa explicación!! Muchisimas gracias por tus grandes aportes!!
Gracias por el video Carlos Santana!
Genial lo que hace estimado. Excelente sus videos :)
El paper es súper difícil de entender a la primera e incluso segunda lectura, pero tú lo has explicado muy bien y sencillo de comprender, like y suscrito.
Conceptos de nuestros profesores (biyectiva, sustantivo) que nos preguntamos para que sirve, ahora en una hermosa ensalada...las vueltas de la vida.
Extrañaba este estilo de videos de dot. Grande!!!
Por fin alguien como me explica como funciona un Transformer por dentro. Solo tengo una palabra que decir. GRACIAS
De cybetron
Impresionante, la temática por supuesto, pero más su exposición.
Que pasada de videos ♥️
Me encantan tus vídeos bro! Saludos desde Perú
:') tienes muy buena info, ojalá hubiera un listado de las IA que has explicado y qué hace cada una de ellas, para ir al video y profundizar, ya que tienes un amplio contenido y como estudiante me gustaría usarlas para investigación
Genial. Quedamos esperando la continuación
ESTE VIDEO ES MARAVILLOSO CARLOS 🙌
que bueno en serio!!!!! mucho valor en tus videos, enhorabuena!
Nah, pangolín es una palabra de baja entropía. Por ahí no se va muy lejos, hay palabras de alta entropía y para darles utilidad no sirven los diccionarios de uso, hay que tirar de semántica etimológica y pragmática. Y ahí, querido amigo, no hay 'nadie' 😉 que pilote.
Estupendo trabajo como de costumbre. 💪
Yo nose como este video no tiene 10M de reproducciones. Es excelente.
Excelente, le felicitó. Quien ha trabajado con ediciones sabe el gran trabajo que ha de llevar hacer un vídeo con esa calidad y atención al detalle.
Carlos estoy estudiando justamente producto escalar y otras cosas varias y me das motivacion al saber que eso mismo que en papel hace doler la cabeza, es tan util y vital en algo tan avanzado y nuevo como los transformers. Abrazo desde Argentina :)
Excelente video...me hizo recordar al ZEN... para despertar conciencia "Todo lo que necesitas es ATENCIÓN"...
Felicitaciones, el contenido es excelente. Nos pone a pensar
Muy buen video Carlos!
Este vídeo ya tiene un año pero sigue siendo muy interesante reflexionar sobre los mecanismos de atención. Por cierto, sería interesante explicar como se pueden utilizar los mecanismos de atención y/o los transformers en análisis de imagen.
MAESTRO. Fascinante. Claro. Concreto.
8:10 Épico, like para la hiperactina
que buen trabajo felicidades
Muchas gracias bro, siempre atento a tus videos
Que gran trabajo para explicarlo tan sencillo! Muy grande!
16:53 ¡Noo! DotCSV se está QuantumFracturizando
Muy bueno !!! Deseando ver la segunda parte .
Épico! Estaba esperando este video hace rato!
Hola Carlos, TH-cam me marco el vídeo cómo visto y no lo había hecho. Contenido genial como siempre
Como siempre, fascinante.
carlos, como siempre muchas gracias!
Vaya pedazo de vídeo te has marcado Carlos, 10/10
Muchas gracias por tus vídeos, eres un máquina.
muy buena explicacion, gracias !
El video, impresionante... tanto por el contenido como por la edición... éste canal es una locura
Muy buen vídeo. Impresionante trabajo de producción y divulgación.
Monstruoso video!!! Felicitaciones!!
Muy interesante y extraordinariamente didáctico. Nivelón.
El mejor canal que he visto por lejos!! Los felicito por los temas que abordan y la excelente forma que EXPLICAN TODO!😄
Excelentes videos, si bien no va al código derecho esta bueno para entender de forma bien conceptual. Sin este paso no se puede entrar al código.
Wowww... Excelente video, compartido.
Me encantó. muchas gracias
Me gustaría ver como se toman estos transformers mi valoración a tu Video, cuando es 1 palabra que dice tanto: ALUCIFLIPO! :)
De verdad, no solo lo documentados y bien explicados que están tus vídeos es algo digno de admiración. La edición que les metes reflejan un trabajo brutal… solo puedo decirte Gracias por semejante nivel de entrega y dedicación.
Esta muy bueno como siempre!!!! (lo único que es un producto vectorial y no escalar)
Me encantan tus vídeos! Gracias a mi novio que empezó a ponérmelos he podido descubrir las implicaciones que la inteligencia artificial tiene para el mundo de la ciencia y la medicina, y en general para todo.
Muchas gracias 🥰
Habla con él al número de arriba, 👆👆 dile que te lo recomiendo 📈📊👌 〽️📊 para obtener consejos sobre comercio o inversión 📉📉📈📈📈📊💹
Me encantan tus vídeos. ¿Que programa usas para hacer las animaciones?
Impresionante Carlos!!!
Durante la guerra por cybetron cuando sobreviven los autobots y decepticons
Me gusta mucho que leas novedades de papers y los expliques de manera sencilla y entendible. Haber si públicas más contenido sobre eso. Saludos. Gracias gracias gracias
Que gran vídeo!! Espero con ansias la segunda parte! Mil graciass