Nechu
Nechu
  • 163
  • 247 546
18 - Codificador posicional | Transformer
🔮 Descubre el intrigante misterio de cómo el Transformer comprende la posición de las palabras en una secuencia.
⛓️ Mientras las Redes Neuronales Recurrentes manejan las palabras una a una en un orden específico, el Transformer, al realizar el cálculo de autoatención con Query, Key y Value, no considera el orden de las palabras, obteniendo resultados idénticos independientemente de su disposición en la secuencia. Es en este momento que nos percatamos de que el modelo ignora la posición.
Aquí entra en acción el héroe subestimado: el codificador posicional.
🧭 En este video, exploraremos las diversas opciones de codificador posicional y nos sumergiremos en los detalles de la fórmula propuesta por el documento de investigación 'Attention is all you need'. Prepárate para desvelar el secreto detrás de cómo el Transformer captura la esencia de la posición en nuestras secuencias de datos
📖 Índice
00:00 ¿Hemos acabado nuestro trabajo?
00:52 Posición en una Red Neuronal Recurrente
02:20 Opciones para indicar la posición en un Transformer
03:54 Características del Codificador Posicional
04:48 Codificador Posicional del Transformer
09:03 Visión a alto Nivel del Transformer
Clases
⏮️ Anterior: Linear y Softmax | Transformer th-cam.com/video/DT6MjN-CNvU/w-d-xo.html
💡 Curso completo: th-cam.com/play/PLxJ3eugu174Jm7Zj1Gx6Ex8-nGbPHFCEh.html
📚 Otros cursos:
• HuggingFace: th-cam.com/play/PLxJ3eugu174IP9tooyNHzr_bYvasTka3a.html
• Los LLM hablan español: th-cam.com/play/PLxJ3eugu174KL3lBf3oSSpJS6lVwGVGAk.html
• Base de datos Vectorial: th-cam.com/play/PLxJ3eugu174Jcm7F-Yxt7XQzgPR1FSSLu.html
• Estadística inferencial: th-cam.com/play/PLxJ3eugu174K9C2tlhIknbbGBxlFvEl1U.html
📖 Otros artículos: medium.com/@dbenzaquenm
☕ Para charlar o tomar un café:
www.linkedin.com/in/daniel-benzaquen-moreno/
มุมมอง: 438

วีดีโอ

17 - Linear y Softmax | Transformer
มุมมอง 2828 หลายเดือนก่อน
¿Cómo transformamos un simple vector en palabras? 🧙 Como exploramos en videos anteriores, al principio convertimos palabras en vectores mediante la mágica técnica de embedding, ya que los modelos de Machine Learning solo entienden números, no letras. 🎱 Pero, aquí está el giro: cuando el modelo nos devuelve números al final, ¿cómo los convertimos de nuevo en palabras? En este breve pero fascinan...
16 - Add & Norm | Conexión residual y Normalización
มุมมอง 3368 หลายเดือนก่อน
Llegados a este punto hemos conquistado la compleja arquitectura del Transformer, compuesta por el poderoso codificador-decodificador. 🧭 Sin embargo, al comparar nuestro conocimiento con el documento de investigación 'Attention is all you need', descubrimos que aún quedan varios conceptos sin explorar. En este video, nos enfocaremos en dos componentes cruciales que completarán nuestra comprens...
15 - Decodificador | Transformer
มุมมอง 4278 หลายเดือนก่อน
En este video llegamos al segundo componente principal del Transfomer, el decodificador ¿Por qué desempeña un papel tan crucial en esta arquitectura revolucionaria? 📚 Mientras que el codificador se enfoca en extraer el significado de la frase, el decodificador se encarga de realizar la traducción, en nuestro caso al inglés. Analizamos los pasos de la decodificación que son: • Auto atención (se...
14 - Atención Multicabezal | Transformer Multi-Head Attention
มุมมอง 4558 หลายเดือนก่อน
✨ En este vídeo, desglosaremos el mecanismo de atención de múltiples cabezas y descubriremos cómo mejora el rendimiento del Transformer en el procesamiento de secuencias. ¿Qué hace que esta técnica sea tan especial? 👀 Veremos cómo el mecanismo de atención se divide en múltiples cabezas para permitir que la red se focalice en diferentes partes de la información de entrada simultáneamente. Esto p...
13 - Auto Atención, Codificador | Transformer
มุมมอง 7068 หลายเดือนก่อน
Avanzamos en nuestro conocimiento de la arquitectura de Transformer y nos sumergimos en un análisis detallado del codificador. Dejamos atrás las explicaciones a alto nivel y nos adentramos en los detalles concretos. El objetivo del codificador en el Transformer es extraer la mejor representación de la frase de entrada. Está compuesto por dos etapas: • Feed forward • Self-attention 👀 Le prestam...
12 - Transformer | Introducción
มุมมอง 7898 หลายเดือนก่อน
En este video, introduciremos la revolucionaria arquitectura del Transformer, una innovación que ha sacudido el mundo de la inteligencia artificial. ¿Qué hace al Transformer tan poderoso? 💍 El Transformer es un modelo tan versátil hasta el punto de que unifica los diferentes campos de la inteligencia artificial (NLP, CV, STT, RL …), en un único camino de investigación. El Transformer también e...
11 - Problemas con la Red Neuronal Recurrente (RNR)
มุมมอง 4079 หลายเดือนก่อน
⛓️ La red neuronal recurrente es un tipo de red neuronal que permite trabajar con secuencias. ¿Y que es una secuencia? Un conjunto de palabras en una frase. ⚠️ Las redes neuronales recurrentes han sido fundamentales para el procesamiento de lenguaje natural, sin embargo, a lo largo de los años, han surgido problemas difíciles de resolver: • Requiere mucha computación • Falta de paralelización •...
10 - Puntuación de Alineación y Vector de Contexto | Mecanismo de Atención
มุมมอง 3359 หลายเดือนก่อน
🔍 El mecanismo de atención es una técnica muy compleja y merece la pena que prestemos especial atención a dos etapas: • Puntuación de alineación: exploramos diferentes fórmulas para calcular la alineación entre el estado del codificador y el estado del decodificador • Vector de contexto: descubrimos las variantes de cómo transmitir el vector de contexto al decodificador. Índice 00:00 Introducc...
9 - Mecanismo de Atención en Profundidad | Codificador-Decodificador RNR
มุมมอง 4669 หลายเดือนก่อน
👀 Sumérgete en el fascinante mundo del mecanismo de atención, inspirado en la capacidad humana de enfocarse en lo importante. A medida que exploramos el funcionamiento del codificador-decodificador, descubriremos cómo la atención se convierte en un componente fundamental para potenciar su rendimiento. En este video, desglosaremos el mecanismo de atención en tres etapas cruciales: • Puntuación d...
8 - Aclaraciones Sobre Redes Neuronales Recurrentes
มุมมอง 4119 หลายเดือนก่อน
🗺️ Después de un apasionante recorrido de 30 años de innovación en IA, donde hemos explorado la arquitectura de codificador-decodificador y el fascinante mecanismo de atención, es momento de detenernos y dedicar unos minutos a profundizar en algunos aspectos clave antes de seguir con nuestra lección. En este vídeo, nos sumergimos en conceptos esenciales que no podemos pasar por alto: • Tokens e...
7 - Red Neuronal Recurrente | Breve historia de Secuencia a Secuencia
มุมมอง 5189 หลายเดือนก่อน
🌊 Los modelos de secuencia a secuencia son los que han liderado la ola de innovación de IA que nos ha llevado a modelos como GPT y BERT. En este video, repasamos los últimos 30 años de desarrollo de este paradigma, que incluyen los siguientes aspectos: • Embeddings • Problemas con una red neuronal clásica • Red neuronal recurrente • Arquitectura codificador-decodificador • Mecanismo de atención...
6 - Mecanismo de Atención | Introducción
มุมมอง 5949 หลายเดือนก่อน
🍾 El problema de cuello de botella es un gran limitante para la arquitectura codificador-decodificador, lo que limita de gran manera su rendimiento. ¿Se te ocurre alguna forma de resolver este problema? 👀 Cuando traducimos un texto, ¿lo leemos una sola vez y ya lo traducimos? La realidad es que, a medida que avanzamos en la traducción, volvemos al texto original y prestamos "atención" a las pal...
5 - Codificador Decodificador | Red Neuronal Recurrente
มุมมอง 6359 หลายเดือนก่อน
🌐 ¡Descubre el intrigante mundo de las redes neuronales recurrentes (RNNs), diseñadas con precisión para dominar secuencias, como conjuntos de palabras en una frase! Esta habilidad innovadora nos ofrece un salto cuántico en el manejo de secuencias, permitiéndonos conquistar desafíos que anteriormente parecían insuperables. Pero, como buenos detectives, nos sumergimos en la pregunta: ¿Es todo ta...
4 - Red Neuronal Recurrente | Introducción Modelos Secuencia a Secuencia
มุมมอง 8199 หลายเดือนก่อน
🌐 Bienvenido al fascinante mundo de las redes neuronales recurrentes (RNNs), diseñadas específicamente para enfrentarse a secuencias, por ejemplo un conjunto de palabras en una frase, las RNNs representan un hito en la evolución de la inteligencia artificial. 🏗️ En este vídeo, llevamos a cabo una comparativa entre la arquitectura de una red neuronal clásica y la potencia de una red neuronal rec...
3 - Word2Vec | ¿Qué es un embedding?
มุมมอง 1.1K9 หลายเดือนก่อน
3 - Word2Vec | ¿Qué es un embedding?
2 - ¿Qué es un embedding? | De palabras a vectores
มุมมอง 1.3K9 หลายเดือนก่อน
2 - ¿Qué es un embedding? | De palabras a vectores
1 - Desvelando GPT | Introducción al curso de Transformer
มุมมอง 4.3K9 หลายเดือนก่อน
1 - Desvelando GPT | Introducción al curso de Transformer
ChromaDB en la nube | Despliega con AWS + ChromaDB + EC2
มุมมอง 1.4Kปีที่แล้ว
ChromaDB en la nube | Despliega con AWS ChromaDB EC2
ChromaDB y ChatGPT | Primeros Pasos y Despliegue en Local con Docker
มุมมอง 13Kปีที่แล้ว
ChromaDB y ChatGPT | Primeros Pasos y Despliegue en Local con Docker
Pinecone y ChatGPT | Tutorial Base de Datos Vectorial desde 0, PreguntaPDF Parte 2
มุมมอง 10Kปีที่แล้ว
Pinecone y ChatGPT | Tutorial Base de Datos Vectorial desde 0, PreguntaPDF Parte 2
13 - SageMaker y MLOps | Capítulo Final
มุมมอง 175ปีที่แล้ว
13 - SageMaker y MLOps | Capítulo Final
12 - Limpieza del Entorno de Trabajo en SageMaker
มุมมอง 250ปีที่แล้ว
12 - Limpieza del Entorno de Trabajo en SageMaker
11 - Despliegue Avanzado de Modelos | Modelo en la Sombra y Modelos Paralelos
มุมมอง 208ปีที่แล้ว
11 - Despliegue Avanzado de Modelos | Modelo en la Sombra y Modelos Paralelos
10 - Dominando la Optimización de Hiperparámetros con SageMaker | Búsqueda en Cuadrícula en Detalle
มุมมอง 254ปีที่แล้ว
10 - Dominando la Optimización de Hiperparámetros con SageMaker | Búsqueda en Cuadrícula en Detalle
9 - Inferencia con SageMaker | Aprendizaje Automático en la Nube
มุมมอง 274ปีที่แล้ว
9 - Inferencia con SageMaker | Aprendizaje Automático en la Nube
8 - Despliega con Sagemaker | Lleva tus Modelos a Producción
มุมมอง 392ปีที่แล้ว
8 - Despliega con Sagemaker | Lleva tus Modelos a Producción
7 - Cómo Entrenar un Modelo de Aprendizaje Automático | SageMaker en Acción
มุมมอง 592ปีที่แล้ว
7 - Cómo Entrenar un Modelo de Aprendizaje Automático | SageMaker en Acción
6 - Recolección de Datos en SageMaker | Estrategias y Herramientas
มุมมอง 525ปีที่แล้ว
6 - Recolección de Datos en SageMaker | Estrategias y Herramientas
5 - Domina SageMaker | Configura tu Notebook Instance Paso a Paso
มุมมอง 683ปีที่แล้ว
5 - Domina SageMaker | Configura tu Notebook Instance Paso a Paso

ความคิดเห็น

  • @mauespinola
    @mauespinola 3 วันที่ผ่านมา

    muchísimas gracias. Es muy clara la explicación. Lo mas sencilla explicación, a pesar de que es compleo

    • @NechuBM
      @NechuBM 18 ชั่วโมงที่ผ่านมา

      ¡Ese es el objetivo! Muchas gracias por el mensaje

  • @mauespinola
    @mauespinola 3 วันที่ผ่านมา

    muy claro, gracias

  • @TheCiubux
    @TheCiubux 8 วันที่ผ่านมา

    Gracias, me ha ayudado bastante

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      ¡Qué bueno! Nos vemos en los próximos vídeos.

  • @FR87666
    @FR87666 9 วันที่ผ่านมา

    Puedes explicar para consideras mas de un pdf para que pueda consultar sobre temas relacionados en los Pdf

  • @FR87666
    @FR87666 9 วันที่ผ่านมา

    Excelente, muy buen video

  • @DulmisFernándezCuriel
    @DulmisFernándezCuriel 12 วันที่ผ่านมา

    Vffg

  • @RobertVirona-l1g
    @RobertVirona-l1g 13 วันที่ผ่านมา

    Mil gracias por tu aporte

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      ¡Un placer!

  • @nachobatero
    @nachobatero 19 วันที่ผ่านมา

    Genial!!

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      ¡A por todas!

  • @nachobatero
    @nachobatero 19 วันที่ผ่านมา

    Excelente! taba perdido en la pag

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      Al principio, puede ser un poco confuso. Espero que estos vídeos te ayuden a sacarle el máximo partido a la plataforma.

  • @mariodelgado165
    @mariodelgado165 19 วันที่ผ่านมา

    Nechu me he echo sub muy buenas tus explicaciones gracias por compartir

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      ¡Qué bueno! Cualquier pregunta no dudes en compartirla en los comentarios

  • @Aurelia_skool
    @Aurelia_skool 20 วันที่ผ่านมา

    Que bueno!

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      Una gran herramienta, espero que los vídeos te ayuden a sacarle el máximo beneficio

  • @DianaMrozek
    @DianaMrozek 21 วันที่ผ่านมา

    Hola! Excelentes tus videos. Me podrías aclarar por favor si el "estado oculto" es un "embedding"? Gracias

  • @marcelodanielkowalczuk3034
    @marcelodanielkowalczuk3034 23 วันที่ผ่านมา

    En un faceswap genero un video pero cuando quiero descargarlo el botòn de descarga ya no està. Còmo puedo acceder al archivo creado? Gracias.

  • @rusbelbermudez238
    @rusbelbermudez238 หลายเดือนก่อน

    Muy buen video y contenido

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      Gracias 🎉💃

  • @KaliNikos
    @KaliNikos หลายเดือนก่อน

    Hola, no veo la información adicional que comentas para las "matematicas" de la codificacion posicional en el momento 8:05. Felicitaciones, por la buenísima explicación.

  • @senoranonimo5864
    @senoranonimo5864 หลายเดือนก่อน

    CONTENIDO DE PURA CALIDAD NUEVO SUB

    • @NechuBM
      @NechuBM 5 วันที่ผ่านมา

      ¡Gracias! 🎉

  • @carlosandresmontanezvalade8233
    @carlosandresmontanezvalade8233 หลายเดือนก่อน

    Buen dia, alguien sabe porque cuando proceso el archivo pdf obtengo este error "ImportError: Could not import sentence_transformers python package. Please install it with `pip install sentence-transformers`."

  • @elkyngustavodiosamartinez2626
    @elkyngustavodiosamartinez2626 หลายเดือนก่อน

    Gracias crack!

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      ¡Un placer!

  • @jeisonpantoja1791
    @jeisonpantoja1791 หลายเดือนก่อน

    He estado buscando información sobre el tema y me he encontrado con tu canal. Te felicito, excelentes tutoriales. Aprovecho para preguntar algo que no me queda claro: ¿por qué cargar los archivos en la memoria temporal? Es una cuestión de Python? Hice una pequeña prueba hace unos días, pero no hice ese carga temporal.

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      No tienes más opción que usar una base de datos externa si quieres que los datos se guarden de manera persistente. Si usas la memoria temporal de Python, los datos solo estarán disponibles mientras la 'sesión' esté activa. Cada vez que reinicies el programa, tendrás que volver a cargar los documentos, lo cual puede llevar mucho tiempo si son muchos. Si estás en fase de desarrollo y solo necesitas hacer pruebas rápidas, cargar los documentos en memoria temporal puede ser útil porque te permite iterar más rápido. Sin embargo, en una aplicación real necesitas una base de datos externa para guardar todos los documentos de forma persistente y asegurarte de que los datos estén siempre disponibles, incluso si reinicias el programa. Espero que la explicación te ayude y cualquier pregunta no dudes en compartirla.

  • @danielmontoya3733
    @danielmontoya3733 หลายเดือนก่อน

    Hola Nechu. Una pregunta, en el minuto 7:40, dices que la probabilidad P(10∩Roja) = 2/52, pero si la persona ya nos aseguro de que es una carta roja la que saco, la probabilidad P(10∩Roja) no deberia ser 2/26?.

  • @ivanpa33
    @ivanpa33 หลายเดือนก่อน

    Excelente presentación.

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      ¡Muchas gracias!

  • @lucianoolivera3878
    @lucianoolivera3878 หลายเดือนก่อน

    Buenas! Primero, Muchísimas gracias por compartir este gran contenido. Mi duda es la siguiente: Esta serie de cursos me prepara para la parte estadística del análisis de datos , verdad? es decir, la parte de limpieza y transformación de datos debería buscarlo en algún otro curso ? de ser así, abordas esos temas en otros cursos? de cualquier forma hare estos 3 porque son una parte esencial del análisis de datos, pero solo tenia esa duda. Muchas gracias otra vez.

  • @fernandodiaz8231
    @fernandodiaz8231 หลายเดือนก่อน

    En tu video se muestra que la tarifa de Amazon indica $0.12/hour. Interpreto que se refiere a la tarifa que cobra por el USO calculado en tiempo. Agradeceré tu confirmación.

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      El costo por hora se aplica mientras el endpoint de Hugging Face esté activo, independientemente de si se realizan solicitudes o no. Esto significa que, aunque no haya uso, se te cobrará por el tiempo que el servicio esté en funcionamiento. Para evitar cargos innecesarios, es recomendable detener o eliminar el endpoint cuando no lo estés utilizando. De todos modos te aconsejo consultar la documentación oficial para obtener más detalles sobre la facturación y gestión de endpoints: discuss.huggingface.co/t/pricing-for-huggingface-endpoint/53456/4

    • @olddirtysquanchy1924
      @olddirtysquanchy1924 20 วันที่ผ่านมา

      Cuando la tarifa de costo dice /hour quiere decir que te cobrarán desde que lo despliegues, es decir si lo tienes 24 horas sin utilizarlo igual lo vas a tener que pagar. Sigue el concepto de los EC2 de AWS

  • @Grovento
    @Grovento หลายเดือนก่อน

    ¡Geniales videos! ¡Muy enriquecedores¡ Tengo dos preguntas: ¿qué formatos de documentos soporta aparte de pdf? Tengo intriga por markdown y json. Otra cosa: he escuchado muchas bondades de LlamaIndex. ¿cómo se compararía con LangChain y Hugging Face, o incluso Haystack? Muchas gracias

  • @georffreyarevalo3067
    @georffreyarevalo3067 2 หลายเดือนก่อน

    Un par de preguntas, que diferencia hay entre la configuración de end points con máquina virtual y la configuración con serverless, de que forma se imcurre en gastos con la configuración de serverless, por otra parte, se puede realizar entrenamientos a partir de modelos de Hugging Face?

  • @josepb303
    @josepb303 2 หลายเดือนก่อน

    Gracias, voy. a utilizarlo todo este mes, me gustaria saber donde me puedo comunicar contigo para hacerte una pequeña consulta mas privada.

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      ¡Que bien, espero que puedes desarollar proyectos muy interesantes! Puedes escribirme por LinkedIn: www.linkedin.com/in/daniel-benzaquen-moreno/

  • @pollocraft3036
    @pollocraft3036 2 หลายเดือนก่อน

    si me salio pero como hago si quiero hallar de varias columnas se que se podria hacer ambas en otro link y otra mas en otro link cargando todo pero como lo hago en un mismo link

  • @gonzaloponce17775367
    @gonzaloponce17775367 2 หลายเดือนก่อน

    Me encantó el tutorial gracias 🎉

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      ¡Un placer!

  • @sebastian_cano
    @sebastian_cano 2 หลายเดือนก่อน

    Muchas gracias, excelente curso.

    • @NechuBM
      @NechuBM หลายเดือนก่อน

      ¡Gracias por el feedback!

  • @edustreamimg
    @edustreamimg 2 หลายเดือนก่อน

    Y como se haria n lugar de texto con audio?

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      Funciona de manera similar a como lo harías con texto. En lugar de utilizar un modelo que convierte texto a vectores/embeddings, necesitas uno que procese audio y lo transforme en vectores/embeddings. Un buen ejemplo es el modelo facebook/wav2vec2-base, que puedes encontrar en Hugging Face. Este modelo convierte grabaciones de voz en vectores/embeddings, lo que permite trabajar con el audio de la misma manera que vemos en el vídeo.

  • @sebastian_cano
    @sebastian_cano 2 หลายเดือนก่อน

    Acabo de descubrir tu canal, y estoy muy contento con la información. He podido adentrarme en este tema y experimentar. Muchas gracias, un saludo desde Colombia

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      ¡Qué chimba colombia! Qué bueno saber que mis vídeos llegan a una tierra tan hermosa y con un café tan delicioso. Espero que aprendas muchos con los vídeos y no dudes en compartir cualquier pregunta que tengas en el canal.

  • @OrlandoEcheverria-q2z
    @OrlandoEcheverria-q2z 2 หลายเดือนก่อน

    muchas gracias master

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      ¡Un placer!

  • @OrlandoEcheverria-q2z
    @OrlandoEcheverria-q2z 2 หลายเดือนก่อน

    Muchas gracias me ha servido un montón, justo en mi trabajo me pidieron una demo :).

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      Qué bueno que te hayan pedido una demo similar, me alegra saber que los videos te han sido útiles. Y si algún día te conviertes en el jefe, ¡no te olvides de invitarme a la celebración! 💃 Mucho éxito con la demo y no dudes en preguntar por los comentarios si necesitas algo más.

    • @OrlandoEcheverria-q2z
      @OrlandoEcheverria-q2z 2 หลายเดือนก่อน

      @@NechuBM por supuesto que sí :) ijji un grande aprendí demasiado

  • @juanmanuelmm2570
    @juanmanuelmm2570 2 หลายเดือนก่อน

    hola quiero hacer una aplicacion para mi, y seria que transforme pdf a audiolibros, y mi idea seria que con ocr extraiga las palabras de cada pagina, luego con un modelo valore el texto y extraiga la informacion que no debe estar como son el pie de pagina,numero de pagina el titulo de la pagina y luego extraido pasarlo a audio. tu como crees que deba implementar y que tipo modelo usar para tratar que infiera que texto no deberia estar en esa pagina por ser palabras de pie de pagina o titulo de la pagina. perdon por mucho texto y con que me digas que tipo de modelo se deberia usar me ayudarias mucho o si ya hay algun patron mas facil para hacer eso ya hecho en la comunidad

  • @quimicodrd
    @quimicodrd 2 หลายเดือนก่อน

    # crear variables indicadoras df_multiple = pd.get_dummies() --------------------------------------------------------------------------- TypeError Traceback (most recent call last) <ipython-input-3-22d1e6c4b438> in <cell line: 2>() 1 # crear variables indicadoras ----> 2 df_multiple = pd.get_dummies() TypeError: get_dummies() missing 1 required positional argument: 'data'

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      Como indica el error, es necesario pasar un argumento a get_dummies(), en este caso, el dataframe con el que estés trabajando. Puedes ver en los ejemplos anteriores cómo se hace.

  • @marianomendoza7648
    @marianomendoza7648 2 หลายเดือนก่อน

    Hasta ahora buenisimo todo, y a TODO lo estoy tomando como una caja negra, porque no tengo idea de tensorflow ni python ni de ML 😂 veremos que sale!

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      ¡Me alegra que te esté gustando! 😄 A veces tratar todo como una caja negra es parte del proceso cuando recién comienzas, pero lo importante es que sigas experimentando. No te preocupes si ahora TensorFlow, Python o ML parecen complicados, ¡poco a poco todo va cobrando sentido! Estoy seguro de que lo que salga será genial, y si necesitas alguna ayuda en el camino, aquí estoy.

    • @marianomendoza7648
      @marianomendoza7648 2 หลายเดือนก่อน

      @@NechuBM Muchas gracias Nechu!

  • @gabrielvillenet4171
    @gabrielvillenet4171 2 หลายเดือนก่อน

    hola buenas disculpa tienes los documentos del video

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      ¿Te refieres a la presentación? Comparto el código y los ejemplos que vemos en las clases, pero no las presentaciones

  • @j0mc4
    @j0mc4 2 หลายเดือนก่อน

    gracias <3

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      Nada!! :)

  • @alejandrolopezsanchez4402
    @alejandrolopezsanchez4402 2 หลายเดือนก่อน

    Este Chatbot que ya lo he probado funciona mejor si le haces las preguntas en inglés, ya que no registra el castellano como idioma por lo que generar las respuestas en inglés o en código HTML. Además que presenta sus claras limitaciones en comparación con las versiones gratuitas de los Chatbot más populares del mercado. Aún así esta bueno tu video en cuanto la explicación para aquellos que se animen a probar Hugging Chat

  • @richardmontoyagomez4076
    @richardmontoyagomez4076 3 หลายเดือนก่อน

    Esta buena la explicación, gracias.

    • @NechuBM
      @NechuBM 2 หลายเดือนก่อน

      Un placer, me alegro que te haya sido útil :)

  • @JohnMarin001
    @JohnMarin001 3 หลายเดือนก่อน

    Muchas gracias por el tutorial. Una duda ese precio por hora es desde q se despliega el end point o solo cuando esta en uso.

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      El precio por hora se cobra por el tiempo en que la máquina virtual está 'encendida' y reservada para nosotros. Esto significa que, independientemente de si utilizamos la máquina al 99% o al 1% de su capacidad, el costo se basa en el tiempo que la máquina está asignada y disponible. Más información sobre los precios: huggingface.co/pricing#endpoints Por lo tanto, es importante gestionar bien el uso y apagar la máquina para evitar cargos innecesarios. Si estas en un entorno empresarial donde necesitas un mecanismo de autoescalado puedes comprobar la siguiente opción: huggingface.co/docs/inference-endpoints/en/autoscaling

    • @JohnMarin001
      @JohnMarin001 3 หลายเดือนก่อน

      @@NechuBM Gracias, me ha quedado clara la información. ;)

  • @elmarlyn
    @elmarlyn 3 หลายเดือนก่อน

    El mejor curso en español para entender los Transformers Networks. Mis felicitaciones

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      🎉 !Gracias! 🎊

  • @pabloescobar2738
    @pabloescobar2738 3 หลายเดือนก่อน

    Eso de la privacidad... Sin comentarios por lo demas gracias 😊

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      Cuando hablo de privacidad, me refiero a que, al descargar un modelo de Hugging Face y alojarlo en nuestro propio entorno, como nuestro ordenador o servidor, no compartimos datos con terceros. Esto nos da un control total sobre nuestra privacidad y seguridad de datos. En cambio, cuando utilizamos un servicio de terceros como OpenAI, nuestros datos pasan por sus servidores, lo que implica confiar en sus políticas y prácticas de privacidad. Espero que esto aclare un poco más la diferencia. ¡Gracias por tu interés!

  • @JUANANDRESMORENOVALBUENA
    @JUANANDRESMORENOVALBUENA 3 หลายเดือนก่อน

    buenisimo bro muchas gracias

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      ¡Un placer! Me alegro que te haya sido útil y hayas aprendido con el vídeo.

  • @santiagotorozuluaga5863
    @santiagotorozuluaga5863 3 หลายเดือนก่อน

    muy interesante, gracias por hacer estos cursos y compartir tu conocimiento

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      ¡Un placer! Que bueno saber que te fue útil

  • @AlexIpiales-nt1xu
    @AlexIpiales-nt1xu 3 หลายเดือนก่อน

    Hola, muchas gracias por la explicación y el conocimiento impartido es de gran ayuda, quería saber si es posible guardar el contexto o historial de la conversación, con el fin de realizar preguntas y tener una mejor interacción y no volver a escribir las preguntas completas.

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      ¡Gracias por tu comentario! ¿Te refieres a guardar un historial de preguntas y respuestas para poder revisarlas más tarde, o te gustaría tener la capacidad de continuar una conversación de manera dinámica, construyendo a partir de respuestas anteriores sin tener que repetir el contexto cada vez? Ambas opciones son posibles, pero funcionan de maneras diferentes.

  • @pitaibarra9063
    @pitaibarra9063 3 หลายเดือนก่อน

    agracias por compartir tus conocimientos

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      ¡Un placer! Nos vemos en los próximos vídeos

  • @gustavopelua
    @gustavopelua 3 หลายเดือนก่อน

    Hola. cual de los archivos de HuggingFace son los que usa Langchain, es decir cuales archivos hay que descargar? muchas gracias

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      Para usar modelos de Hugging Face con LangChain, no necesitas preocuparte demasiado por los archivos que necesitas descargar, la librería se encarga automáticamente de gestionar todo. Aun así, si deseas ver cuáles archivos se descargan en tu ordenador, puedes revisar la carpeta de caché donde se almacenan. Aquí tienes un enlace con información detallada sobre la ubicación de cache de HuggingFace en tu ordenador: huggingface.co/docs/transformers/main/en/installation#cache-setup

    • @gustavopelua
      @gustavopelua 2 หลายเดือนก่อน

      @@NechuBM Muchas gracias

  • @miguelr_
    @miguelr_ 3 หลายเดือนก่อน

    Este video es ORO! wao, lo que he tratado de comprender por horas, en menos de 30 minutos ha sido explicado magistralmente.

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      ¡Muchas gracias! Me alegra saber que la explicación te haya aclarado las dudas y en poco tiempo

  • @wchinanihuagira4708
    @wchinanihuagira4708 3 หลายเดือนก่อน

    ¡Hola! ¿Podríamos hablar por email para la propuesta de un proyecto? Gracias y enhorabuena 🎉

    • @NechuBM
      @NechuBM 3 หลายเดือนก่อน

      Por supuesto, mándame un mensaje por LinkedIn y ahí vemos las opciones: www.linkedin.com/in/daniel-benzaquen-moreno/