Entropía y Teoría de la Información

แชร์
ฝัง
  • เผยแพร่เมื่อ 20 ธ.ค. 2024
  • Charla a cargo del investigador Javier García del Gilab Lab de la UdG, sobre el papel de la entropía en la teoría de la información. Es una introducción divulgativa y con ejemplos.

ความคิดเห็น • 76

  • @alejandroxalabarder7940
    @alejandroxalabarder7940 7 ปีที่แล้ว +12

    Genial! soy ingeniero de telecomunicaciones e informático y aunque algunas cosas las sabía todavía he aprendido algo en esta magnífica lección!

    • @charliedeshawn7290
      @charliedeshawn7290 3 ปีที่แล้ว

      Dont know if you guys cares but if you are stoned like me during the covid times then you can stream pretty much all of the new series on instaflixxer. I've been watching with my gf lately :)

    • @carterignacio913
      @carterignacio913 3 ปีที่แล้ว

      @Charlie Deshawn Definitely, been using instaflixxer for months myself :D

  • @box1702
    @box1702 11 ปีที่แล้ว +2

    Excelente , al tiempo de pausar el video he ido tomando apuntes , realmente muy interesante. Gracias. From Houston, TX. US

  • @manolopajaroborras2205
    @manolopajaroborras2205 10 ปีที่แล้ว

    Que charla tan buena he profundizado mis conocimiento y esto me ha ayudado muy bueno lo que planteas soy docente de teoria general de sistemas y esto me a aportado mucho

  • @daniaisabelahumadapardo227
    @daniaisabelahumadapardo227 11 ปีที่แล้ว +1

    Excelente !! no se imagina cuanto me ayudo!! gracias

  • @carlitoxheavy15
    @carlitoxheavy15 7 ปีที่แล้ว +1

    Wouh. Muchas gracias por el vídeo. Saludos desde Chile!

  • @RobertoEspinho
    @RobertoEspinho 9 ปีที่แล้ว +2

    Muy muy bueno. Gracias Javier.

  • @666FK
    @666FK 8 ปีที่แล้ว

    excelente vídeo, mejor no pudo estar, gracias!

  • @Mithrandirkun
    @Mithrandirkun 7 ปีที่แล้ว

    Muy bueno, un aporte muy interesante.
    Al final entiendes el sentido real de lo que es la compresion, que es, que el numero o valor menos probable tenga un "peso" mayor de bits y los numeros más probables un "peso" menor, con lo cual se ahorra espacio de almacenamiento.

  • @xxkev1nx
    @xxkev1nx 11 ปีที่แล้ว +1

    que crack para explicar la entropía!! gracias!

  • @valeropascualgallego3132
    @valeropascualgallego3132 10 ปีที่แล้ว +1

    Me ha gustado, pues es una inmersión rápida en el tema que da forma a unas ideas básicas y creo que puede animar a la gente a buscar y aprender de forma autodidacta más sobre el asunto. Enhorabuena.

  • @PipeCarrillf
    @PipeCarrillf 4 ปีที่แล้ว

    Saludos de Colombia

  • @hfrqs
    @hfrqs 5 ปีที่แล้ว

    Excelente video drozz

  • @LaureanoLuna
    @LaureanoLuna 11 ปีที่แล้ว

    Maravillosa introducción.
    Infiero que la entropía de Shannon podría definirse como la información no revelada en una distribución de probabilidad. Eso explicaría que sea 0 cuando hay un resultado seguro y máxima cuando la distribución es uniforme,
    Uno se queda pensando cómo demostrar que el nº de preguntas s/n no puede ser menor que H.

  • @wisnerss
    @wisnerss 11 ปีที่แล้ว

    Felicitaciones te entendí muy bien la entropia. buen trabajo

  • @jimmyfernandohurtadotoral8521
    @jimmyfernandohurtadotoral8521 ปีที่แล้ว

    Hola. Soy neurocirujano con maestría en medicina del dolor. Siento que en mi consulta he superado ampliamente el algoritmo de Huffman. Quisiera demostrarlo en un estudio con 10.000 pacientes a partir de enero del 2024. Si mi solicitud le interesa, podemos diseñar un proyecto para demostrarlo y predecir en comportamiento de mi consulta. Gracias.

  • @granderrotam1922
    @granderrotam1922 7 ปีที่แล้ว +1

    ¡Cómo te lo curras! Me he enterado bastante bien (creo) y desconocía prácticamente todo.
    Me gusta la eléctrónica y también programar; lo mismo algún día lo aplico para algo... ¡Bueno!; lo ideal sería encontrar el número mínimo de preguntas para asegurarme haber entendido a mi mujer y/o tener un método para comprimir sus instrucciones.
    Muchas gracias. ;)

    • @Javier_Garcia
      @Javier_Garcia  7 ปีที่แล้ว +3

      Ostras, si encuentras un método para comprender a las mujeres, compártelo por aquí y que a muchos nos iría bien :)

  • @belac0r92
    @belac0r92 12 ปีที่แล้ว +1

    Realmente muy bueno. Podrías hacer una conferencia acerca de la física teórica? Creo que es algo apasionante para los profanos a la física.

  • @FlavioNicolasRossi
    @FlavioNicolasRossi 9 ปีที่แล้ว +1

    Gracias por la explicación!

  • @uncanaldemierda1
    @uncanaldemierda1 4 ปีที่แล้ว +1

    genial, me encantó!

  • @IAVIC
    @IAVIC 2 ปีที่แล้ว

    Javier es un crack

  • @aguilarjulianandres
    @aguilarjulianandres 3 ปีที่แล้ว

    En el caso de jerarquía hay un error, el valor del número de preguntas medio es 2.58. No sé de dónde sale el 2.83, sin embargo, en el caso partícular ese caso tiene menos preguntas que el siguiente, peeero en un caso general no es así. Gracias.

  • @cristianerodriguezr7083
    @cristianerodriguezr7083 6 ปีที่แล้ว

    Entiendo que la entropía es causar el mayor desorden (movimiento) posible al inicio para en el desenlace hallar orden, es decir ir de lo complejo a lo más simple... No se si pueda me explico bien sobre lo que creo que entendí o no entendí la idea principal? Gracias

  • @MrNomeetiquetes
    @MrNomeetiquetes 7 ปีที่แล้ว

    Estaría bien que hicieras un vídeo del modelo de ising en 1D javier. saludos y muy buenos vídeos

  • @diegoazanza7355
    @diegoazanza7355 9 ปีที่แล้ว

    Todo muy bien explicado gracias.
    Solo en la tabla del min. 54 la columna información está mal, usando I = -log(Pn) no sale eso.

  • @robertobenito4438
    @robertobenito4438 6 ปีที่แล้ว

    Un vídeo estupendo. Tengo una duda, probablemente asociada a mi falta de conocimientos: la búsqueda jerárquica del ejemplo, justo después de la búsqueda binaria ¿no daría un valor promedio de 2,58 en lugar del 2,83 que pones (que es mejor marca que la de Shannon-Fano, pero peor que la de Huffman)? En cualquier caso, el sentido general está muy claro, muchísimas gracias por compartirlo.

  • @Monterrey1167
    @Monterrey1167 4 ปีที่แล้ว +1

    Excelente Presentacion!!!! Estimado Profesor, podria compartir la presentacion via email. Estudio Licenciatura en Negocios Internacionales y es de gran utilidad su exposicion.

  • @jimmypatino41
    @jimmypatino41 25 วันที่ผ่านมา

    Podrías compartir las diapositivas? 🥹

  • @fisikmedik5003
    @fisikmedik5003 6 ปีที่แล้ว

    Hola! He aprendido. ¿Será que podeis compartir la presentación?

  • @eltuquu
    @eltuquu 12 ปีที่แล้ว

    muy bueno este tutorial sobre lateoria de la informacion, seria posible obtener esas diapositivas, soy estudiante y me gustaria exponer este tema tan interesante en mi salon de clases

  • @normavieyra265
    @normavieyra265 7 หลายเดือนก่อน

    Gracias.

  • @gad45678
    @gad45678 9 ปีที่แล้ว

    Hola Javier, ¿En la descompresión como sabes cuantos bits tienes que leer para cada pixel si no existe un separador logico entre los pixeles?
    Gracias.

  • @ceroaleph3092
    @ceroaleph3092 8 ปีที่แล้ว

    ¡Hola! Profesor Javier Garcia.
    Tengo una pregunta, desde mi completa ignorancia.
    En el último ejemplo, el de la compresión de la imagen, el algoritmo propone:
    00 -> 1
    10 -> 00
    11 - > 010
    01 -> 011
    Pero ¿no será mejor comprimir de la siguiente manera?:
    00 -> 0
    10 -> 1
    11 -> 10
    01 -> 11
    Con lo que el código final quedaría mucho más corto.
    De antemano, muchas gracias por la respuesta.

  • @gastonviero2525
    @gastonviero2525 7 ปีที่แล้ว

    Javier, te quería consultar sobre el concepto de entropia.
    Si todos los sistemas tienden al desorden, como se explica la formación de galaxias, sistemas planetarios y la formación de vida hasta llegar a el ser humano que es un sistema altamente ordenado?
    Muchas gracias por los vídeos.

  • @madisanz
    @madisanz 7 ปีที่แล้ว

    Buenísimo!!!! podes compartir el pdf de la charla, así se puede ver mas en detalle? gracias

    • @Javier_Garcia
      @Javier_Garcia  7 ปีที่แล้ว

      Gracias Margarita. Han pasado unos años y no sé dónde tengo el pdf, sorry.

  • @patriciof.calatayud9861
    @patriciof.calatayud9861 3 ปีที่แล้ว

    Javier, muchas gracias por el video. Me queda una duda, ¿cuál es el significado de la diferencia entre Huffman y Entropía? ¿Es la cantidad de preguntas mayor que la cantidad de información?

  • @jorgerivasriver8587
    @jorgerivasriver8587 4 ปีที่แล้ว

    Maestro, estoy fascinado por los videos de tus cursos, son excelentes y he visto algunos bocetos de tus conferencias, debido al formato uno se puede de la información de tus presentaciones, por lo que le pregunto ¿habría la posibilidad de obtener esas presentaciones en la descripción de tus videos? para seguir los videos con las presentaciones que se proyectan

  • @MrNomeetiquetes
    @MrNomeetiquetes 7 ปีที่แล้ว

    javier, tienes algún posdoct o doctorado en inteligencia artificial o algo por el estilo, veo que tienes vídeos referentes a este tema

  • @JavArro
    @JavArro 5 ปีที่แล้ว

    Muy bien.

  • @JCMartzN
    @JCMartzN 11 ปีที่แล้ว

    Escucho y olvido, veo y recuerdo, hago y aprendo

  • @another12another
    @another12another 5 ปีที่แล้ว

    Buenas, alguien amablemente puede pasar el PDF?

  • @pablotapiales286
    @pablotapiales286 5 ปีที่แล้ว +2

    44:08 Iluminati !!!!!, Iluminati !!!!!,

  • @pablotapiales286
    @pablotapiales286 5 ปีที่แล้ว

    O sea que la información de encontrar una receta de croquetas aquí seria infinita?

  • @enriquearcias9220
    @enriquearcias9220 6 ปีที่แล้ว

    Por que 0 por infinito es 0? lo hacen por intuición?

  • @enriquearcias9220
    @enriquearcias9220 6 ปีที่แล้ว

    Excelente, pero mucho se inventa los casos y eso hace que diverjan las ideas

  • @dioniciocardus9223
    @dioniciocardus9223 7 ปีที่แล้ว

    en base 8 solo se puede escribir hasta el 7 sin agregar otra letra letra

  • @gatritioponsoutoni1742
    @gatritioponsoutoni1742 2 ปีที่แล้ว

    No se ve nada lo que escribe en la pizarra

  • @juancarlosdiazsalgado9644
    @juancarlosdiazsalgado9644 ปีที่แล้ว

    La información que uno capta, es de probabilidad cero, porque uno no alcanza a ver el tablero donde escribe y explica.

  • @PipeCarrillf
    @PipeCarrillf 4 ปีที่แล้ว

    El covid estaba pegando duro en ese entonces tambn

  • @pablotapiales286
    @pablotapiales286 5 ปีที่แล้ว

    No entendí una pepa, pero bueno tampoco soy del tema, entre buscando recetas de croquetas y salio esto, igual esta bueno ya encontré un libro para saber algo de este tema

  • @juanabad5889
    @juanabad5889 7 ปีที่แล้ว

    la información tiene su equivalente en energía ! ??????????

  • @PipeCarrillf
    @PipeCarrillf 4 ปีที่แล้ว

    Vaya titulo de video!!!

  • @LaureanoLuna
    @LaureanoLuna 10 ปีที่แล้ว

    Javier, cuando dices que es más probable que el que está en un bar viendo fútbol sea hombre, te apresuras a decir que no quieres ser machista (lo que soobra xq estás hablando de estadística). Pero en 0:18:16 atribuyes un comportamiento violento a todos los hombres y solo a ellos, y no te das cuenta de que eso es sexista; toca en un bar a una mujer y es muy posible que te pegue una torta. Pero si te la pega la mujer está socialmente bien visto. Reproduces ese sexismo contra el varón.

    • @Erebo1981
      @Erebo1981 10 ปีที่แล้ว

      Deja de buscarle tres pies al gato y haz criticas constructivas.

    • @LaureanoLuna
      @LaureanoLuna 10 ปีที่แล้ว

      0Erebo0 Es una necesidad social denunciar la discriminación que sufre el varón y luchar contra ella. Y lo primero es concienciarse de que existe. A las primeras feministas les negaban que la mujer estuviera discriminada. Tú me recuerdas a esos que lo negaban...

    • @Erebo1981
      @Erebo1981 10 ปีที่แล้ว

      Laureano Luna Tu me recuerdas a una persona muy amargada que no sabe distinguir entre una gracia y un comportamiento sexista.

    • @LaureanoLuna
      @LaureanoLuna 10 ปีที่แล้ว

      0Erebo0 Pues me avergüenza un poco recordarte a ti mismo, la verdad.

  • @lionelmartinez6810
    @lionelmartinez6810 ปีที่แล้ว

    Creo que has confundido la entropía con la capacidad de un canal que es la información mutua máximizada por el tipo de variable aleatoria de la entrada que a su vez es la entropía de la entrada menos la entropía de la entrada condicionada por la salida. Cuando te preguntan cómo es que el código de Huffman da un número mayor que la entropía (en realidad sería la capacidad del canal) es porque la información mutua hay que calcularla para la variable aleatoria de entrada que lo maximiza no con la del problema en cuestión. Huffman te da la máxima para un tipo de variable aleatoria dada por eso la capacidad del canal es una cota inferior.

    • @lionelmartinez6810
      @lionelmartinez6810 ปีที่แล้ว

      es decir, que la capacidad del canal te da el mínimo número de preguntas pudiendo elegir el tipo de la variable aleatoria de entrada (por eso es del canal) mientras que Huffman te da el mínimo número de preguntas para un tipo de variable aleatoria en concreto que puede no ser la óptima.

  • @fansdee-mastersensei1155
    @fansdee-mastersensei1155 4 ปีที่แล้ว

    13043

  • @Mary-cy5pp
    @Mary-cy5pp 3 ปีที่แล้ว

    . MARI

  • @htvelazquez
    @htvelazquez 8 ปีที่แล้ว +1

    el "simbolo" es omega, letra del alfabeto griego!!

    • @Javier_Garcia
      @Javier_Garcia  8 ปีที่แล้ว +1

      +Hernán Velázquez Gracias! Es que ya me hago viejo y no me acuerdo de las cosas :)

    • @htvelazquez
      @htvelazquez 8 ปีที่แล้ว

      +Javier Garcia todavía no lo he terminado pero me ha esclarecido bastante un tema que no llegaba a entender del todo bien! Gracias :D

    • @Javier_Garcia
      @Javier_Garcia  8 ปีที่แล้ว

      +Hernán Velázquez Me alegro mucho!

  • @nicolaslucero9621
    @nicolaslucero9621 8 ปีที่แล้ว

    las camara estan puestas en una pesima ubicacion y falta mas luz para que pueda verse claramente lo que se explica. NO ME GUSTO

  • @lobo
    @lobo 11 ปีที่แล้ว

    El señor este? que falta de respeto

  • @AlvaroMarinH.
    @AlvaroMarinH. ปีที่แล้ว

    Qué man tan desordenado!