Muchas gracias por tu contenido. Eres uno de los mejores divulgadores que conozco y nos ahorras horas para actualizarnos en todos estos temas que son un poco más complejos. Te ageadezco muchísimo y recomiendo tu canal cada que puedo.
Estimado Juan hice tu ejercicio en el modelo que está en l página web de claude, claude sonnet y me dio la respuesta correcta , además con un análisis al menos aceptable, en un cortó periodo. Creo que habla bien de este modelo , al menos para las matemáticas. No uso el modelo de chat gpt por defecto 4o, para las matemáticas generalmente , pero después de esta prueba tampoco lo volvería hacer. Saludos desde Atacama.
@@alguezaart Sonnet 3.5 es un modelo muy bueno, el benchmark que he comentado de agentes autónomos lo confirma. Lo interesante del enfoque de o1 es aplicar RL a la habilidad de razonamiento, imaginate la capacidad de razonamiento de Sonnet cuando Anthropic aplique está misma técnica...
Hola Juan, muy interesante y actualizado tus videos como siempre, me gustaria saber donde me puedo capacitar para crear desarrollos como estos, ya sea utilizando la API de opneai y diferentes integraciones de IA que estan a la vanguardia, Gracias Productomania por tu ayuda.
En unas semanas voy a sacar nuevos cursos en los que enseñaré a automatizar procesos utilizando LLMs, si estás interesado puedes apuntarte a la waitlist: tally.so/r/w4vKxX
Se entiende que un modelo "alucina" cuando entregua una respuesta que para el modelo es válida, incluso apoyada con datos inventados y que parece correcta por como está argumentada, pero que es total o parcialmente falsa o incorrecta.
Muchas gracias por tu contenido. Eres uno de los mejores divulgadores que conozco y nos ahorras horas para actualizarnos en todos estos temas que son un poco más complejos. Te ageadezco muchísimo y recomiendo tu canal cada que puedo.
Estimado Juan hice tu ejercicio en el modelo que está en l página web de claude, claude sonnet y me dio la respuesta correcta , además con un análisis al menos aceptable, en un cortó periodo. Creo que habla bien de este modelo , al menos para las matemáticas. No uso el modelo de chat gpt por defecto 4o, para las matemáticas generalmente , pero después de esta prueba tampoco lo volvería hacer. Saludos desde Atacama.
@@alguezaart Sonnet 3.5 es un modelo muy bueno, el benchmark que he comentado de agentes autónomos lo confirma. Lo interesante del enfoque de o1 es aplicar RL a la habilidad de razonamiento, imaginate la capacidad de razonamiento de Sonnet cuando Anthropic aplique está misma técnica...
Hola Juan, muy interesante y actualizado tus videos como siempre, me gustaria saber donde me puedo capacitar para crear desarrollos como estos, ya sea utilizando la API de opneai y diferentes integraciones de IA que estan a la vanguardia, Gracias Productomania por tu ayuda.
En unas semanas voy a sacar nuevos cursos en los que enseñaré a automatizar procesos utilizando LLMs, si estás interesado puedes apuntarte a la waitlist: tally.so/r/w4vKxX
Hola, a qué se refiere con que un modelo alucine?
Se entiende que un modelo "alucina" cuando entregua una respuesta que para el modelo es válida, incluso apoyada con datos inventados y que parece correcta por como está argumentada, pero que es total o parcialmente falsa o incorrecta.