Charla a cargo del investigador Javier García del Gilab Lab de la UdG, sobre el papel de la entropía en la teoría de la información. Es una introducción divulgativa y con ejemplos.
Dont know if you guys cares but if you are stoned like me during the covid times then you can stream pretty much all of the new series on instaflixxer. I've been watching with my gf lately :)
Que charla tan buena he profundizado mis conocimiento y esto me ha ayudado muy bueno lo que planteas soy docente de teoria general de sistemas y esto me a aportado mucho
Muy bueno, un aporte muy interesante. Al final entiendes el sentido real de lo que es la compresion, que es, que el numero o valor menos probable tenga un "peso" mayor de bits y los numeros más probables un "peso" menor, con lo cual se ahorra espacio de almacenamiento.
Me ha gustado, pues es una inmersión rápida en el tema que da forma a unas ideas básicas y creo que puede animar a la gente a buscar y aprender de forma autodidacta más sobre el asunto. Enhorabuena.
Maravillosa introducción. Infiero que la entropía de Shannon podría definirse como la información no revelada en una distribución de probabilidad. Eso explicaría que sea 0 cuando hay un resultado seguro y máxima cuando la distribución es uniforme, Uno se queda pensando cómo demostrar que el nº de preguntas s/n no puede ser menor que H.
Hola. Soy neurocirujano con maestría en medicina del dolor. Siento que en mi consulta he superado ampliamente el algoritmo de Huffman. Quisiera demostrarlo en un estudio con 10.000 pacientes a partir de enero del 2024. Si mi solicitud le interesa, podemos diseñar un proyecto para demostrarlo y predecir en comportamiento de mi consulta. Gracias.
¡Cómo te lo curras! Me he enterado bastante bien (creo) y desconocía prácticamente todo. Me gusta la eléctrónica y también programar; lo mismo algún día lo aplico para algo... ¡Bueno!; lo ideal sería encontrar el número mínimo de preguntas para asegurarme haber entendido a mi mujer y/o tener un método para comprimir sus instrucciones. Muchas gracias. ;)
En el caso de jerarquía hay un error, el valor del número de preguntas medio es 2.58. No sé de dónde sale el 2.83, sin embargo, en el caso partícular ese caso tiene menos preguntas que el siguiente, peeero en un caso general no es así. Gracias.
Entiendo que la entropía es causar el mayor desorden (movimiento) posible al inicio para en el desenlace hallar orden, es decir ir de lo complejo a lo más simple... No se si pueda me explico bien sobre lo que creo que entendí o no entendí la idea principal? Gracias
Un vídeo estupendo. Tengo una duda, probablemente asociada a mi falta de conocimientos: la búsqueda jerárquica del ejemplo, justo después de la búsqueda binaria ¿no daría un valor promedio de 2,58 en lugar del 2,83 que pones (que es mejor marca que la de Shannon-Fano, pero peor que la de Huffman)? En cualquier caso, el sentido general está muy claro, muchísimas gracias por compartirlo.
Excelente Presentacion!!!! Estimado Profesor, podria compartir la presentacion via email. Estudio Licenciatura en Negocios Internacionales y es de gran utilidad su exposicion.
muy bueno este tutorial sobre lateoria de la informacion, seria posible obtener esas diapositivas, soy estudiante y me gustaria exponer este tema tan interesante en mi salon de clases
¡Hola! Profesor Javier Garcia. Tengo una pregunta, desde mi completa ignorancia. En el último ejemplo, el de la compresión de la imagen, el algoritmo propone: 00 -> 1 10 -> 00 11 - > 010 01 -> 011 Pero ¿no será mejor comprimir de la siguiente manera?: 00 -> 0 10 -> 1 11 -> 10 01 -> 11 Con lo que el código final quedaría mucho más corto. De antemano, muchas gracias por la respuesta.
Javier, te quería consultar sobre el concepto de entropia. Si todos los sistemas tienden al desorden, como se explica la formación de galaxias, sistemas planetarios y la formación de vida hasta llegar a el ser humano que es un sistema altamente ordenado? Muchas gracias por los vídeos.
Javier, muchas gracias por el video. Me queda una duda, ¿cuál es el significado de la diferencia entre Huffman y Entropía? ¿Es la cantidad de preguntas mayor que la cantidad de información?
Maestro, estoy fascinado por los videos de tus cursos, son excelentes y he visto algunos bocetos de tus conferencias, debido al formato uno se puede de la información de tus presentaciones, por lo que le pregunto ¿habría la posibilidad de obtener esas presentaciones en la descripción de tus videos? para seguir los videos con las presentaciones que se proyectan
No entendí una pepa, pero bueno tampoco soy del tema, entre buscando recetas de croquetas y salio esto, igual esta bueno ya encontré un libro para saber algo de este tema
Javier, cuando dices que es más probable que el que está en un bar viendo fútbol sea hombre, te apresuras a decir que no quieres ser machista (lo que soobra xq estás hablando de estadística). Pero en 0:18:16 atribuyes un comportamiento violento a todos los hombres y solo a ellos, y no te das cuenta de que eso es sexista; toca en un bar a una mujer y es muy posible que te pegue una torta. Pero si te la pega la mujer está socialmente bien visto. Reproduces ese sexismo contra el varón.
0Erebo0 Es una necesidad social denunciar la discriminación que sufre el varón y luchar contra ella. Y lo primero es concienciarse de que existe. A las primeras feministas les negaban que la mujer estuviera discriminada. Tú me recuerdas a esos que lo negaban...
Creo que has confundido la entropía con la capacidad de un canal que es la información mutua máximizada por el tipo de variable aleatoria de la entrada que a su vez es la entropía de la entrada menos la entropía de la entrada condicionada por la salida. Cuando te preguntan cómo es que el código de Huffman da un número mayor que la entropía (en realidad sería la capacidad del canal) es porque la información mutua hay que calcularla para la variable aleatoria de entrada que lo maximiza no con la del problema en cuestión. Huffman te da la máxima para un tipo de variable aleatoria dada por eso la capacidad del canal es una cota inferior.
es decir, que la capacidad del canal te da el mínimo número de preguntas pudiendo elegir el tipo de la variable aleatoria de entrada (por eso es del canal) mientras que Huffman te da el mínimo número de preguntas para un tipo de variable aleatoria en concreto que puede no ser la óptima.
Genial! soy ingeniero de telecomunicaciones e informático y aunque algunas cosas las sabía todavía he aprendido algo en esta magnífica lección!
Dont know if you guys cares but if you are stoned like me during the covid times then you can stream pretty much all of the new series on instaflixxer. I've been watching with my gf lately :)
@Charlie Deshawn Definitely, been using instaflixxer for months myself :D
Excelente , al tiempo de pausar el video he ido tomando apuntes , realmente muy interesante. Gracias. From Houston, TX. US
Que charla tan buena he profundizado mis conocimiento y esto me ha ayudado muy bueno lo que planteas soy docente de teoria general de sistemas y esto me a aportado mucho
Excelente !! no se imagina cuanto me ayudo!! gracias
Wouh. Muchas gracias por el vídeo. Saludos desde Chile!
Muy muy bueno. Gracias Javier.
excelente vídeo, mejor no pudo estar, gracias!
Muy bueno, un aporte muy interesante.
Al final entiendes el sentido real de lo que es la compresion, que es, que el numero o valor menos probable tenga un "peso" mayor de bits y los numeros más probables un "peso" menor, con lo cual se ahorra espacio de almacenamiento.
que crack para explicar la entropía!! gracias!
Me ha gustado, pues es una inmersión rápida en el tema que da forma a unas ideas básicas y creo que puede animar a la gente a buscar y aprender de forma autodidacta más sobre el asunto. Enhorabuena.
Muchas gracias!
Saludos de Colombia
Excelente video drozz
Maravillosa introducción.
Infiero que la entropía de Shannon podría definirse como la información no revelada en una distribución de probabilidad. Eso explicaría que sea 0 cuando hay un resultado seguro y máxima cuando la distribución es uniforme,
Uno se queda pensando cómo demostrar que el nº de preguntas s/n no puede ser menor que H.
Felicitaciones te entendí muy bien la entropia. buen trabajo
Hola. Soy neurocirujano con maestría en medicina del dolor. Siento que en mi consulta he superado ampliamente el algoritmo de Huffman. Quisiera demostrarlo en un estudio con 10.000 pacientes a partir de enero del 2024. Si mi solicitud le interesa, podemos diseñar un proyecto para demostrarlo y predecir en comportamiento de mi consulta. Gracias.
¡Cómo te lo curras! Me he enterado bastante bien (creo) y desconocía prácticamente todo.
Me gusta la eléctrónica y también programar; lo mismo algún día lo aplico para algo... ¡Bueno!; lo ideal sería encontrar el número mínimo de preguntas para asegurarme haber entendido a mi mujer y/o tener un método para comprimir sus instrucciones.
Muchas gracias. ;)
Ostras, si encuentras un método para comprender a las mujeres, compártelo por aquí y que a muchos nos iría bien :)
Realmente muy bueno. Podrías hacer una conferencia acerca de la física teórica? Creo que es algo apasionante para los profanos a la física.
Gracias por la explicación!
genial, me encantó!
Javier es un crack
En el caso de jerarquía hay un error, el valor del número de preguntas medio es 2.58. No sé de dónde sale el 2.83, sin embargo, en el caso partícular ese caso tiene menos preguntas que el siguiente, peeero en un caso general no es así. Gracias.
Entiendo que la entropía es causar el mayor desorden (movimiento) posible al inicio para en el desenlace hallar orden, es decir ir de lo complejo a lo más simple... No se si pueda me explico bien sobre lo que creo que entendí o no entendí la idea principal? Gracias
Estaría bien que hicieras un vídeo del modelo de ising en 1D javier. saludos y muy buenos vídeos
Todo muy bien explicado gracias.
Solo en la tabla del min. 54 la columna información está mal, usando I = -log(Pn) no sale eso.
Un vídeo estupendo. Tengo una duda, probablemente asociada a mi falta de conocimientos: la búsqueda jerárquica del ejemplo, justo después de la búsqueda binaria ¿no daría un valor promedio de 2,58 en lugar del 2,83 que pones (que es mejor marca que la de Shannon-Fano, pero peor que la de Huffman)? En cualquier caso, el sentido general está muy claro, muchísimas gracias por compartirlo.
Excelente Presentacion!!!! Estimado Profesor, podria compartir la presentacion via email. Estudio Licenciatura en Negocios Internacionales y es de gran utilidad su exposicion.
Podrías compartir las diapositivas? 🥹
Hola! He aprendido. ¿Será que podeis compartir la presentación?
muy bueno este tutorial sobre lateoria de la informacion, seria posible obtener esas diapositivas, soy estudiante y me gustaria exponer este tema tan interesante en mi salon de clases
Gracias.
Hola Javier, ¿En la descompresión como sabes cuantos bits tienes que leer para cada pixel si no existe un separador logico entre los pixeles?
Gracias.
¡Hola! Profesor Javier Garcia.
Tengo una pregunta, desde mi completa ignorancia.
En el último ejemplo, el de la compresión de la imagen, el algoritmo propone:
00 -> 1
10 -> 00
11 - > 010
01 -> 011
Pero ¿no será mejor comprimir de la siguiente manera?:
00 -> 0
10 -> 1
11 -> 10
01 -> 11
Con lo que el código final quedaría mucho más corto.
De antemano, muchas gracias por la respuesta.
Javier, te quería consultar sobre el concepto de entropia.
Si todos los sistemas tienden al desorden, como se explica la formación de galaxias, sistemas planetarios y la formación de vida hasta llegar a el ser humano que es un sistema altamente ordenado?
Muchas gracias por los vídeos.
Buenísimo!!!! podes compartir el pdf de la charla, así se puede ver mas en detalle? gracias
Gracias Margarita. Han pasado unos años y no sé dónde tengo el pdf, sorry.
Javier, muchas gracias por el video. Me queda una duda, ¿cuál es el significado de la diferencia entre Huffman y Entropía? ¿Es la cantidad de preguntas mayor que la cantidad de información?
Maestro, estoy fascinado por los videos de tus cursos, son excelentes y he visto algunos bocetos de tus conferencias, debido al formato uno se puede de la información de tus presentaciones, por lo que le pregunto ¿habría la posibilidad de obtener esas presentaciones en la descripción de tus videos? para seguir los videos con las presentaciones que se proyectan
javier, tienes algún posdoct o doctorado en inteligencia artificial o algo por el estilo, veo que tienes vídeos referentes a este tema
Muy bien.
Escucho y olvido, veo y recuerdo, hago y aprendo
Buenas, alguien amablemente puede pasar el PDF?
44:08 Iluminati !!!!!, Iluminati !!!!!,
O sea que la información de encontrar una receta de croquetas aquí seria infinita?
Por que 0 por infinito es 0? lo hacen por intuición?
Excelente, pero mucho se inventa los casos y eso hace que diverjan las ideas
en base 8 solo se puede escribir hasta el 7 sin agregar otra letra letra
No se ve nada lo que escribe en la pizarra
La información que uno capta, es de probabilidad cero, porque uno no alcanza a ver el tablero donde escribe y explica.
El covid estaba pegando duro en ese entonces tambn
No entendí una pepa, pero bueno tampoco soy del tema, entre buscando recetas de croquetas y salio esto, igual esta bueno ya encontré un libro para saber algo de este tema
la información tiene su equivalente en energía ! ??????????
Vaya titulo de video!!!
Javier, cuando dices que es más probable que el que está en un bar viendo fútbol sea hombre, te apresuras a decir que no quieres ser machista (lo que soobra xq estás hablando de estadística). Pero en 0:18:16 atribuyes un comportamiento violento a todos los hombres y solo a ellos, y no te das cuenta de que eso es sexista; toca en un bar a una mujer y es muy posible que te pegue una torta. Pero si te la pega la mujer está socialmente bien visto. Reproduces ese sexismo contra el varón.
Deja de buscarle tres pies al gato y haz criticas constructivas.
0Erebo0 Es una necesidad social denunciar la discriminación que sufre el varón y luchar contra ella. Y lo primero es concienciarse de que existe. A las primeras feministas les negaban que la mujer estuviera discriminada. Tú me recuerdas a esos que lo negaban...
Laureano Luna Tu me recuerdas a una persona muy amargada que no sabe distinguir entre una gracia y un comportamiento sexista.
0Erebo0 Pues me avergüenza un poco recordarte a ti mismo, la verdad.
Creo que has confundido la entropía con la capacidad de un canal que es la información mutua máximizada por el tipo de variable aleatoria de la entrada que a su vez es la entropía de la entrada menos la entropía de la entrada condicionada por la salida. Cuando te preguntan cómo es que el código de Huffman da un número mayor que la entropía (en realidad sería la capacidad del canal) es porque la información mutua hay que calcularla para la variable aleatoria de entrada que lo maximiza no con la del problema en cuestión. Huffman te da la máxima para un tipo de variable aleatoria dada por eso la capacidad del canal es una cota inferior.
es decir, que la capacidad del canal te da el mínimo número de preguntas pudiendo elegir el tipo de la variable aleatoria de entrada (por eso es del canal) mientras que Huffman te da el mínimo número de preguntas para un tipo de variable aleatoria en concreto que puede no ser la óptima.
13043
. MARI
el "simbolo" es omega, letra del alfabeto griego!!
+Hernán Velázquez Gracias! Es que ya me hago viejo y no me acuerdo de las cosas :)
+Javier Garcia todavía no lo he terminado pero me ha esclarecido bastante un tema que no llegaba a entender del todo bien! Gracias :D
+Hernán Velázquez Me alegro mucho!
las camara estan puestas en una pesima ubicacion y falta mas luz para que pueda verse claramente lo que se explica. NO ME GUSTO
El señor este? que falta de respeto
Qué man tan desordenado!