Gracias por traernos contenido serio de manera abierta. Será un honor terminar mi etapa de estudios y comenzar a consumir contenido de pago, porque si esto es el gratuito, pagando debe ser 🔥
Gracias por el video, como siempre excelente. Que tal usar el recall vs la especificidad? Que día vi un ejercicio donde promediaban ambos valores y buscaban el mejor umbral, el que daba el mejor promedio.
Excelente video Muchas gracias, un ejemplo de un muestreos sesgados muy claros es cuando se hace estadísticas para saber quién va a ganar una elección a un puesto de elección popular, es muy difícil poder utilizar cualquiera de estos métodos, Por qué no tenemos nunca datos etiquetados, la única etiqueta que conseguimos es cuando ya se da la elección Y estos resultados son solo válidos para cada elección en particular, la siguiente elección puede tener resultados muy diferentes, muchas veces se utiliza el caso de darle un peso a cada dato para obtener un balanceo en el sesgo, pero muchas veces no sabemos Cuál es el peso que hay que colocar y no eliminamos el sesgo, Gracias por el video lo voy a compartir en redes sociales
Gracias por la excelente información. ¿Podrías, por favor, proporcionar un ejemplo concreto que demuestre cómo, al aplicar alguna de las estrategias mencionadas, se mejora el desbalanceo de datos? Sería útil ver una comparación de las métricas de precisión y recall antes y después del proceso.
Y la importancia de que vayan ambas métricas de la mano. Por ejemplo, en el contexto de pandemia, una muy baja precisión ocasionaría gasto de recursos innecesarios para identificar a los enfermos. Aunque, en general, en estos casos de anomalías creo que se debe medir bajo la premisa de "es mejor clasificar algunos falsos positivos de más a que dejar falsos negativos sin abordar".
Gracias por la excelente información. ¿Podrías, por favor, proporcionar un ejemplo concreto que demuestre cómo, al aplicar alguna de las estrategias mencionadas, se mejora el desbalanceo de datos? Sería útil ver una comparación de las métricas de precisión y recall antes y después del proceso.
🔥🔥Academia Online: codificandobits.com/ 🔥🔥
🔥🔥Asesorías y formación personalizada: codificandobits.com/servicios/ 🔥🔥
😃 Excelente .
Gracias por traernos contenido serio de manera abierta. Será un honor terminar mi etapa de estudios y comenzar a consumir contenido de pago, porque si esto es el gratuito, pagando debe ser 🔥
Gracias por el video, como siempre excelente. Que tal usar el recall vs la especificidad? Que día vi un ejercicio donde promediaban ambos valores y buscaban el mejor umbral, el que daba el mejor promedio.
Excelente video Muchas gracias, un ejemplo de un muestreos sesgados muy claros es cuando se hace estadísticas para saber quién va a ganar una elección a un puesto de elección popular, es muy difícil poder utilizar cualquiera de estos métodos, Por qué no tenemos nunca datos etiquetados, la única etiqueta que conseguimos es cuando ya se da la elección Y estos resultados son solo válidos para cada elección en particular, la siguiente elección puede tener resultados muy diferentes, muchas veces se utiliza el caso de darle un peso a cada dato para obtener un balanceo en el sesgo, pero muchas veces no sabemos Cuál es el peso que hay que colocar y no eliminamos el sesgo, Gracias por el video lo voy a compartir en redes sociales
Exactamente! Es un muy buen ejemplo para explicar este tema del sesgo en el muestreo. Gracias!
10:14 Seria interesante ver como asignar esos pesos. Un saludo ingeniero
Gracias por la excelente información. ¿Podrías, por favor, proporcionar un ejemplo concreto que demuestre cómo, al aplicar alguna de las estrategias mencionadas, se mejora el desbalanceo de datos? Sería útil ver una comparación de las métricas de precisión y recall antes y después del proceso.
Claro que sí y gracias por tu sugerencia. La tendré en cuenta para un próximo video. Un saludo!
Por mi parte utilizo el compute_class_weight y la métrica f1 score
Qué buena sugerencia! Un saludo!
Y la importancia de que vayan ambas métricas de la mano. Por ejemplo, en el contexto de pandemia, una muy baja precisión ocasionaría gasto de recursos innecesarios para identificar a los enfermos. Aunque, en general, en estos casos de anomalías creo que se debe medir bajo la premisa de "es mejor clasificar algunos falsos positivos de más a que dejar falsos negativos sin abordar".
Totalmente de acuerdo! En ese caso es ideal usar, por ejemplo, el f1-score. Un saludo!
Gracias por la excelente información. ¿Podrías, por favor, proporcionar un ejemplo concreto que demuestre cómo, al aplicar alguna de las estrategias mencionadas, se mejora el desbalanceo de datos? Sería útil ver una comparación de las métricas de precisión y recall antes y después del proceso.
Claro que sí y gracias por tu sugerencia. La tendré en cuenta para un próximo video. Un saludo!