OpenAI lanza NUEVO MODELO: o1. Todo lo que necesitas saber.

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 ม.ค. 2025

ความคิดเห็น • 8

  • @johncalderonvalor
    @johncalderonvalor หลายเดือนก่อน

    Muchas gracias por tu contenido. Eres uno de los mejores divulgadores que conozco y nos ahorras horas para actualizarnos en todos estos temas que son un poco más complejos. Te ageadezco muchísimo y recomiendo tu canal cada que puedo.

  • @alguezaart
    @alguezaart 3 หลายเดือนก่อน +1

    Estimado Juan hice tu ejercicio en el modelo que está en l página web de claude, claude sonnet y me dio la respuesta correcta , además con un análisis al menos aceptable, en un cortó periodo. Creo que habla bien de este modelo , al menos para las matemáticas. No uso el modelo de chat gpt por defecto 4o, para las matemáticas generalmente , pero después de esta prueba tampoco lo volvería hacer. Saludos desde Atacama.

    • @productomania
      @productomania  3 หลายเดือนก่อน +1

      @@alguezaart Sonnet 3.5 es un modelo muy bueno, el benchmark que he comentado de agentes autónomos lo confirma. Lo interesante del enfoque de o1 es aplicar RL a la habilidad de razonamiento, imaginate la capacidad de razonamiento de Sonnet cuando Anthropic aplique está misma técnica...

  • @MarcoAntonioPalacioFragoso
    @MarcoAntonioPalacioFragoso 3 หลายเดือนก่อน +1

    Hola Juan, muy interesante y actualizado tus videos como siempre, me gustaria saber donde me puedo capacitar para crear desarrollos como estos, ya sea utilizando la API de opneai y diferentes integraciones de IA que estan a la vanguardia, Gracias Productomania por tu ayuda.

    • @productomania
      @productomania  3 หลายเดือนก่อน

      En unas semanas voy a sacar nuevos cursos en los que enseñaré a automatizar procesos utilizando LLMs, si estás interesado puedes apuntarte a la waitlist: tally.so/r/w4vKxX

  • @egenchango
    @egenchango 3 หลายเดือนก่อน

    Hola, a qué se refiere con que un modelo alucine?

    • @Qualiagenerator
      @Qualiagenerator 3 หลายเดือนก่อน +1

      Se entiende que un modelo "alucina" cuando entregua una respuesta que para el modelo es válida, incluso apoyada con datos inventados y que parece correcta por como está argumentada, pero que es total o parcialmente falsa o incorrecta.