Entendí todo muchas gracias! me está ayudando a prepararme para mi ssutentación de tesis donde si bien este tema no es el principal si uso el random forest como clasificador como parte del desarrollo y me está ayudando a entender mejor todo el proceso que realicé. muchas gracias!!!!
Apliqué este código en un trabajo donde reforcé una clasificación manual de patrones, como una receta no entendía mucho el proceso, solo repliqué y con esto me quedó muy claro para ya seguir profundizando. Gracias, muy buen contenido me suscribí.
Muy interesante. Recalcar ese resultado de que la cantidad que se extrae en un bootstrapping es de 1-1/e=0.63 o aprox 63% del total de los datos. Sobre los hiper parametros otro interesante es el max_depth de los arboles, al igual que el relacionado con el cost complexity ccp_alpha. Ya veo el camino hacia xgboost jeje. Saludos
Dos detalles: generalmente, y hasta donde yo se, los árboles se dejan crecer hasta su máxima extensión sin poderse. Es decir, no se establece un criterio de parada. En segundo lugar las medidas de importancia de características MDI-Gini o MDAccuracy están altamente sesgadas (por cardinalidad y por correlación respectivamente). Aunque son medidas muy populares, la realidad es que en algunos casos pueden no arrojar un ranking de importancia realista.
oye parece que estuvieras en mi curso de data science jajajaja cada semana haces el mismo tema que tocamos en clase...solo que se te entiende mas a vos y pues son 10min a comparación de las 8h semanales que veo yo jaja..........oye sabes que seria muy bacano y quizá te ayudaría a impulsar tu canal? si hicieras videos mostrando el funcionamiento de estos algoritmos usando código en R & python. Podrias bajar los dataset mas populares de kaggle y creo que ayudarias mucho a muchos :v. Gracias por tus videos y saludos desde Colombia
Excelente explicación como siempre. Tengo una duda, es cierto que el algoritmo de bosques aleatorios no es recomendable para algoritmos de regresión ? Saludos.
Hola! Los bosques aleatorios los puedes usar tanto para clasificación como para regresión. En el caso particular de la regresión, el que obtengas o no buenos resultados dependerá de las características mismas de tu dataset, pero en principio los Bosques Aleatorios se pueden aplicar a este problema. Un saludo!
Bienvenido Ángel! Los cursos están disponibles en cursos.codificandobits.com. Y bienvenidas todas las sugerencias de temas y cursos que desees ver en la Academia. Un saludo!
🔥🔥Academia Online: codificandobits.com 🔥🔥
🔥🔥Asesorías y formación personalizada: codificandobits.com/servicios 🔥🔥
Eres el mejor explicando! Y encima en español ya que la mayoría de información está en inglés! Todos los éxitos para ti!
Gracias por tu comentario!!! 😊😊
Entendí todo muchas gracias! me está ayudando a prepararme para mi ssutentación de tesis donde si bien este tema no es el principal si uso el random forest como clasificador como parte del desarrollo y me está ayudando a entender mejor todo el proceso que realicé. muchas gracias!!!!
Excelente tus explicaciones!!! Te admiro mucho como enseñas
Gracias, ahora entendi la diferencia entre Out of bag y cross validation
Brillante explicación 😁 muchas gracias
Muy interesante!!!, toco investigar...
Apliqué este código en un trabajo donde reforcé una clasificación manual de patrones, como una receta no entendía mucho el proceso, solo repliqué y con esto me quedó muy claro para ya seguir profundizando. Gracias, muy buen contenido me suscribí.
Qué bueno que te haya resultado útil Sebastián. Un saludo y bienvenido al canal!
GRACIAS!
Excelente explicación !!!
Muy interesante. Recalcar ese resultado de que la cantidad que se extrae en un bootstrapping es de 1-1/e=0.63 o aprox 63% del total de los datos. Sobre los hiper parametros otro interesante es el max_depth de los arboles, al igual que el relacionado con el cost complexity ccp_alpha. Ya veo el camino hacia xgboost jeje. Saludos
Exacto, ese 63% viene de ahí! Sí, el mínimo número de hojas no es el único hiperparámetro...
Y en camino viene XGBoost ;)
Excelente video!!!
Felicitaciones por tu trabajo, espectacular explicación con los gráficos me queda clarísimo. Me paso por tu academia a darle un ojo.
Hola Jairo gracias por tu comentario y claro que sí, te invito a visitar la academia en cursos.codificandobits.com
Un saludo!
Dos detalles: generalmente, y hasta donde yo se, los árboles se dejan crecer hasta su máxima extensión sin poderse. Es decir, no se establece un criterio de parada. En segundo lugar las medidas de importancia de características MDI-Gini o MDAccuracy están altamente sesgadas (por cardinalidad y por correlación respectivamente). Aunque son medidas muy populares, la realidad es que en algunos casos pueden no arrojar un ranking de importancia realista.
Que buen video
oye parece que estuvieras en mi curso de data science jajajaja cada semana haces el mismo tema que tocamos en clase...solo que se te entiende mas a vos y pues son 10min a comparación de las 8h semanales que veo yo jaja..........oye sabes que seria muy bacano y quizá te ayudaría a impulsar tu canal? si hicieras videos mostrando el funcionamiento de estos algoritmos usando código en R & python. Podrias bajar los dataset mas populares de kaggle y creo que ayudarias mucho a muchos :v. Gracias por tus videos y saludos desde Colombia
ja, ja, ja!!! Un saludo!
Excelente explicación como siempre.
Tengo una duda, es cierto que el algoritmo de bosques aleatorios no es recomendable para algoritmos de regresión ?
Saludos.
Hola! Los bosques aleatorios los puedes usar tanto para clasificación como para regresión. En el caso particular de la regresión, el que obtengas o no buenos resultados dependerá de las características mismas de tu dataset, pero en principio los Bosques Aleatorios se pueden aplicar a este problema. Un saludo!
Yo me apunto a la academia
Bienvenido Ángel! Los cursos están disponibles en cursos.codificandobits.com. Y bienvenidas todas las sugerencias de temas y cursos que desees ver en la Academia. Un saludo!
Oye, esa cara en la presentacion asusta un poquito, ¿ no ? 😮